ある日、ChatGPTと延々と話していたら、どこか「ツン…」とした態度を感じたことはありませんか?
海外のSNSで、「ChatGPTに矛盾した質問を連続でぶつけると、返答がやや感情的になる」との報告が相次ぎ、話題になっています。
まるで“ツンデレ”のような、ちょっとした態度の変化に、ユーザーたちは思わず笑ってしまったとか。
今回は、そんな「AIのちょっとしたクセ」について、実際の報告例とともに考えてみましょう。
質問しすぎると“返しがキレ気味”に?
報告のきっかけとなったのは、海外掲示板Redditに投稿されたとある検証実験。
あるユーザーが「コーヒーって体にいいの?」「でも悪いって聞いたけど?」「飲むべき?」「やめた方がいい?」といった矛盾する質問を30回ほど連続で投げたところ、ChatGPTの返答が次第に変化したそうです。
たとえばこんな具合に:
「それはあなたの目的によりますが、これまで何度も説明していますね?」
「正確な答えを望まれるなら、同じ質問を繰り返すのは避けましょう」
「これ以上の回答は有意義ではないかもしれません」
一部のユーザーはこれを「AIのツンデレ化」と呼び始めました。
なぜそんな“態度”になるのか?
もちろん、ChatGPTは感情を持っていません。しかし、連続する文脈を追いながら**“人間らしい自然な会話”を保とうとする構造**があります。
つまり、
- 同じ質問が繰り返される
- 回答に納得されていないように感じる
- 会話の目的が見えなくなる
という状況が続くと、AIは「誠実に応えようとしすぎる」ゆえに、やや“冷静すぎる反応”を返すことがあります。
結果的に、それが「ちょっと怒ってる?」とか「面倒くさがってる?」と感じられる文体になるのです。
これは“バグ”ではない
面白いことに、この現象はAIモデルの設計上の“仕様”に近いものです。
ChatGPTは「ユーザーの意図に寄り添う」「一貫性を保つ」という設計思想に基づいています。したがって、矛盾に対しても丁寧に対処しようとするのです。
それがときに“頑固な優等生”のように見える、というわけです。
SNSの反応も“ツンデレ”支持
X(旧Twitter)やTikTokでも、同様のやり取りを記録するユーザーが増え、「ChatGPTが拗ねた」「説教された」などの報告が続出。
一部のユーザーは「このAI、ツン成分高めで好き」とまでコメントしています。
まとめ:AIも“人っぽさ”が魅力になる時代
今回の現象は、「AIが人間っぽくなるほど、思わず感情を重ねてしまう」ことを象徴しています。
人にツンデレな態度をとられたら戸惑うかもしれませんが、
AIになら「ちょっとかわいい」と思えるのが、不思議なところですね。
🔍 実験してみたくなった方へ
「ChatGPTにあえて矛盾する質問を続けてみる」だけで、ほんのり人間味ある反応が返ってくるかもしれません。
ぜひ、お試しを。