株式会社MareSpera

AIの誤情報(ハルシネーション)について

コラム
2026/04/14

ここ最近は一般でもエンジニア界隈でもAIが使われるようになり、ある意味欠かせないものになりつつあります。
その上でAIが出してくる誤情報についてです。
ハルシネーションとは事実ではないことをあたかも事実のように答えを返してくる事象のことだそうです。
わかりませんと言えずにそれらしい答えを作ってしまうというのが問題です。

過去コラムでもAIについて記載しておりますが、基本的に統計を出しその中から適切と思われる情報を分析してだすというのが、
AIの基本的な考え方です。
そのため、間違った情報や曖昧な情報が多く含まれる場合、誤った解釈をし、回答をします。
その内容の専門家ではない場合、間違いに気づかず信じてしまうということになります。

だからAIが出す情報は必ずしも正しくはなく、人が見直す必要があるというのは理解いただきたいと思います。
効率化や頭出し、たたき台などを作るのは非常に楽になりましたが、そこから人が手を加える必要があります。

そのためAI使えばすぐできるとか、楽になるというのは幻想に近いと思います。
わかる人が使えば武器になりますが、わからない理解できない人が頼ったところでそれっぽい答えがでただけで、
正しさや整合性、セキュリティ面など気にするべきことは気にされていません。
現状はここをAIが対応することはできません。
だからこそ人間チェックがいります。知識あってのAIですので、何も理解しなくてもAIに聞けば答えがあると思うのは
非常に危険です。
このような方がハルシネーションを信じてしまい、問題を起こします。

あくまで楽をできる効率化できるツールの1つであり、使い方次第です。
万能ではないというのはよく理解してください。
そのためAIだけではなく自分で検索する、本で調べる、知識がある人に聞くなどをした上で判断してください。
これを行うことによってハルシネーションによる被害は減らせると思います。

なお、個人であくまで情報見るため、興味本位で観察だけであればそこまでの問題はありません。
業務として使う場合や行動を伴う対応をする場合は気を付けてください。

私自身はAI使っていますが、あくまで情報収集に徹して使わせてもらっています。
今後別の使い方をすることはあるかもしれませんが、その時は十分注意して利用する予定です。
皆様も気を付けてください。

シェア