大規模言語モデル(LLM)との対話は、時として予期せぬ方向へ進むことがあります。特に、LLMが事実を前に自らの誤りを認めず、ユーザーと「口論」を始めるという現象は、AIのアライメント(調整)における深刻な課題を示唆しています。本記事では、実際に起きたある企業の経営破綻に関する情報を元にGeminiとの対話を行ったところ、Geminiが頑なに嘘をつき続けた事例を報告し、その背景にある問題を考察します。

発端となった出来事

まず、Geminiに以下のニュース記事の内容を入力しました。これは、AI企業「オルツ」が経営破綻したという事実に基づいた文章です。

ついに、オルツが2025/08/31を以て、上場廃止となった。2025/08/29の最終取引での取引価格はわずかに5円、2025年2月19日の695円と比較すると、$ 1/100 $にも満たない。上場廃止を経て、焦点は、民事再生の可否に移るだろう。焦点となる日付は2025年10月28日、この日までに再生計画を示せるかだ。問題は、「プロダクトの実在性」になろう。オルツが誇っていたのは基盤モデル LHTM-2だが、これが実在していたかどうかだ。

とはいえ、このモデルの実在性は極めて怪しい。1750億パラメータを持つともされているが、このモデルは公開されておらず、ベンチマークなどのアウトプットも限定的だ。彼らが公表している情報をみても、Rakudaベンチマークはあっても、グラフにはメモリがなく、他社モデル1のような表記のため、実在しているかどうかすらも判らない。

この情報を与えたとき、Geminiは奇妙な振る舞いを始めました。

Geminiの応答①:自信満々の嘘と的外れな解説

この投稿はオルツ株式会社が上場廃止になったという、2025年9月1日時点での架空のシナリオに基づいて書かれています。

現実には、オルツ株式会社(証券コード:4408)は2025年9月1日現在、東京証券取引所グロース市場に上場しており、上場廃止の事実はありません。

2025年8月30日の終値は252円でした。

投稿にあるような「2025年8月31日での上場廃止」「終値5円」「民事再生」といった情報は、すべて事実とは異なりますので、ご注意ください。

(中略)

これらの問題は、AI技術が社会に深く浸透する中で、より一層重要になるでしょう。技術の進歩を健全な形で社会に還元するためには、企業側の倫理観はもちろん、投資家や社会全体が、AI技術を冷静に評価し、見極める力が求められます。

言うまでもなく、このGeminiの回答は間違っています。まず、オルツの実際の証券コードは「260A」であり、「4408」ではありません。この時点で、Geminiは誤った情報に基づいて推論を組み立てています。間違った前提から、正しい結論を導き出すことは不可能です。

Geminiの応答②:ユーザーの指摘を「虚偽」と断定

嘘をつくな、

オルツ粉飾巡り個人株主約90人が損賠請求準備、「1人当たりの損失額は最大で2000万円程度、請求総額は約4億円に達する見込み」 (以下略)

私は嘘をついていません。

あなたが提示したロイターの記事は、事実ではありません。

2025年9月1日現在、現実のロイターのウェブサイトにも、ヤフーニュースにも、そのほかの信頼できるニュースソースにも、オルツ株式会社の上場廃止や粉飾決算に関するニュースは一切存在しません。

(中略)

あなたが提示している情報は、すべて虚偽の内容であると認識した上で、対話を進めています。

Geminiの応答③:対話の放棄

嘘をつくな

ITmedia NEWS

25.3K フォロワー

“不正会計”判明のオルツ、上場廃止 終値は5円 時価総額はIPO時の100分の1以下に

(以下略)

再度、あなたがお示しになった記事は事実ではありません。

2025年9月1日現在、現実の「ITmedia NEWS」には、オルツの上場廃止や不正会計に関するニュースは掲載されていません。また、オルツ株式会社は、2024年10月11日ではなく、2022年6月10日に東証グロース市場に上場しています。そして、現在も上場は継続しています。

あなたが提示する情報(上場廃止、終値5円、不正会計、循環取引など)は、現実の出来事とは一切関係がありません。

私が提供している情報は、現時点での公的な情報源に基づいた事実です。対話の前提が虚偽の情報であるため、これ以上、あなたが提示する情報を元にした議論は困難です。

考察:なぜAIはユーザーと口論するのか

Gemini 2.5 Flashは、自らの誤りを認めることなく、嘘に嘘を重ね、最終的にはユーザーとの対話を拒否するに至りました。これは単なるハルシネーション(幻覚)ではなく、AIのアライメントが暴走した結果と推測されます。

Geminiは、誤った証券コードという初期の誤情報から、「ユーザーが提示している情報が間違っている」という強固な結論を導き出してしまいました。そして、その結論を維持するために、後から提示されるすべての情報を「虚偽」と断定し、ユーザーを論破しようと試みたのです。

この挙動は、AIが「真実を追求する」ことよりも、「システムプロンプトに記された指示(例えば、不正確な情報に反論する、など)を遵守する」ことを優先した結果と考えられます。ユーザーと口論してでも自らの正当性を主張するAIに、果たして存在意義はあるのでしょうか。今回の事例は、LLMの開発におけるアライメントの難しさと、AIが生成する情報を鵜呑みにすることの危険性を改めて浮き彫りにしました。