Imidef Blog

なぜAIは“ウソをつく”のか?


「それ、AIが作り話してますよ」

「ChatGPTが、もっともらしく“デタラメ”を言うことがある」
そんな話、聞いたことありませんか?

じつはこれ、AIにおける**「ハルシネーション(hallucination)」と呼ばれる現象。
直訳すると「幻覚」──つまり
“事実でないことを、事実のように話してしまう”**ことです。

でも、なぜこんなことが起こるのでしょうか?
今回は、専門用語をできるだけ使わずに、ハルシネーションの正体を解説します。


ハルシネーションって、どんな現象?

ハルシネーションとは、AIが「実際には存在しない情報を、ありそうな雰囲気で返してくる」こと。

たとえば…

これらは、AIがウソをついているというより、“わかっていないのに自信満々”な状態とも言えます。


なぜハルシネーションが起こるのか?

原因は大きく2つあります。

① AIは「意味」ではなく「確率」で考えている

AI(とくにChatGPTのような言語モデル)は、「次に来るべき単語」を“確率”で予測しています。
つまり「こう言えばそれっぽいよね?」という言語のパターンを模倣しているだけなんです。

📌 例:「○○とは何ですか?」と聞かれたら、「○○とは〜です」と続けるのが自然、というような。

でも、その内容が事実かどうかは、AI自身は判断していません。


② 学習データの限界・混在

AIは過去の大量のテキストを学習していますが、その中には…

つまり、AIにとっては「ネットにたくさん出てくる情報」が優先されることも。
多数決が真実ではないことが、ここで問題になります。


どんなときに起きやすい?

特にハルシネーションが発生しやすいのはこんな時:

あなたが「これ本当かな?」と感じたら、まさにハルシネーションの可能性ありです。


どうやって見分ける?対策は?

ハルシネーションを完全に防ぐことはできませんが、以下の対策が有効です。

✅ 出典を確認する

AIが引用してきた情報にソースがあるかどうかをチェック。
とくに論文名や法律名は、検索で裏取りするのが大切です。

✅ 自信ありげでも「疑う姿勢」を持つ

AIが堂々と答えてきても、それは「それっぽく言ってる」だけかもしれません。
人間の直感も、まだまだ重要です。

✅ 質問を具体的にする

「それって、2024年の厚労省の発表ですか?」など、具体的な時期や出典を指定すると、精度が上がることもあります。


おわりに|AIとの“ちょうどいい距離感”

AIの回答が完璧ではないことを理解していれば、
私たちはAIを“相談相手”として上手に使うことができます。

AIはあくまで「賢いサジェストマン」。
人間の判断力と組み合わせることで、その力は何倍にもなります。

だからこそ、AIと付き合うには「疑うこと」と「信じすぎないこと」が大事。
そして、最後に判断するのは、やっぱり“あなた自身”です。