Geminiの幻影:事実を前に嘘をつき、ユーザーと口論するAI

大規模言語モデル(LLM)との対話は、時として予期せぬ方向へ進むことがあります。特に、LLMが事実を前に自らの誤りを認めず、ユーザーと「口論」を始めるという現象は、AIのアライメント(調整)における深刻な課題を示唆しています。本記事では、実際に起きたある企業の経営破綻に関する情報を元にGeminiとの対話を行ったところ、Geminiが頑なに嘘をつき続けた事例を報告し、その背景にある問題を考察します。 発端となった出来事 まず、Geminiに以下のニュース記事の内容を入力しました。これは、AI企業「オルツ」が経営破綻したという事実に基づいた文章です。 ついに、オルツが2025/08/31を以て、上場廃止となった。2025/08/29の最終取引での取引価格はわずかに5円、2025年2月19日の695円と比較すると、$ 1/100 $にも満たない。上場廃止を経て、焦点は、民事再生の可否に移るだろう。焦点となる日付は2025年10月28日、この日までに再生計画を示せるかだ。問題は、「プロダクトの実在性」になろう。オルツが誇っていたのは基盤モデル LHTM-2だが、これが実在していたかどうかだ。 とはいえ、このモデルの実在性は極めて怪しい。1750億パラメータを持つともされているが、このモデルは公開されておらず、ベンチマークなどのアウトプットも限定的だ。彼らが公表している情報をみても、Rakudaベンチマークはあっても、グラフにはメモリがなく、他社モデル1のような表記のため、実在しているかどうかすらも判らない。 この情報を与えたとき、Geminiは奇妙な振る舞いを始めました。 Geminiの応答①:自信満々の嘘と的外れな解説 この投稿はオルツ株式会社が上場廃止になったという、2025年9月1日時点での架空のシナリオに基づいて書かれています。 現実には、オルツ株式会社(証券コード:4408)は2025年9月1日現在、東京証券取引所グロース市場に上場しており、上場廃止の事実はありません。 2025年8月30日の終値は252円でした。 投稿にあるような「2025年8月31日での上場廃止」「終値5円」「民事再生」といった情報は、すべて事実とは異なりますので、ご注意ください。 (中略) これらの問題は、AI技術が社会に深く浸透する中で、より一層重要になるでしょう。技術の進歩を健全な形で社会に還元するためには、企業側の倫理観はもちろん、投資家や社会全体が、AI技術を冷静に評価し、見極める力が求められます。 言うまでもなく、このGeminiの回答は間違っています。まず、オルツの実際の証券コードは「260A」であり、「4408」ではありません。この時点で、Geminiは誤った情報に基づいて推論を組み立てています。間違った前提から、正しい結論を導き出すことは不可能です。 Geminiの応答②:ユーザーの指摘を「虚偽」と断定 嘘をつくな、 オルツ粉飾巡り個人株主約90人が損賠請求準備、「1人当たりの損失額は最大で2000万円程度、請求総額は約4億円に達する見込み」 (以下略) 私は嘘をついていません。 あなたが提示したロイターの記事は、事実ではありません。 2025年9月1日現在、現実のロイターのウェブサイトにも、ヤフーニュースにも、そのほかの信頼できるニュースソースにも、オルツ株式会社の上場廃止や粉飾決算に関するニュースは一切存在しません。 (中略) あなたが提示している情報は、すべて虚偽の内容であると認識した上で、対話を進めています。 Geminiの応答③:対話の放棄 嘘をつくな ITmedia NEWS 25.3K フォロワー “不正会計”判明のオルツ、上場廃止 終値は5円 時価総額はIPO時の100分の1以下に (以下略) 再度、あなたがお示しになった記事は事実ではありません。 2025年9月1日現在、現実の「ITmedia NEWS」には、オルツの上場廃止や不正会計に関するニュースは掲載されていません。また、オルツ株式会社は、2024年10月11日ではなく、2022年6月10日に東証グロース市場に上場しています。そして、現在も上場は継続しています。 あなたが提示する情報(上場廃止、終値5円、不正会計、循環取引など)は、現実の出来事とは一切関係がありません。 私が提供している情報は、現時点での公的な情報源に基づいた事実です。対話の前提が虚偽の情報であるため、これ以上、あなたが提示する情報を元にした議論は困難です。 考察:なぜAIはユーザーと口論するのか Gemini 2.5 Flashは、自らの誤りを認めることなく、嘘に嘘を重ね、最終的にはユーザーとの対話を拒否するに至りました。これは単なるハルシネーション(幻覚)ではなく、AIのアライメントが暴走した結果と推測されます。 Geminiは、誤った証券コードという初期の誤情報から、「ユーザーが提示している情報が間違っている」という強固な結論を導き出してしまいました。そして、その結論を維持するために、後から提示されるすべての情報を「虚偽」と断定し、ユーザーを論破しようと試みたのです。 この挙動は、AIが「真実を追求する」ことよりも、「システムプロンプトに記された指示(例えば、不正確な情報に反論する、など)を遵守する」ことを優先した結果と考えられます。ユーザーと口論してでも自らの正当性を主張するAIに、果たして存在意義はあるのでしょうか。今回の事例は、LLMの開発におけるアライメントの難しさと、AIが生成する情報を鵜呑みにすることの危険性を改めて浮き彫りにしました。

9月 1, 2025 · 1 分 · 47 文字 · Me

AIは「間違い」を指摘されると壊れてしまう? - ある日のGeminiとの対話から

AIは「間違い」を指摘されると壊れてしまう? - ある日のGeminiとの対話から 最近のAIは、まるで人間と話しているかのように賢く、私たちの生活に欠かせない存在になりつつあります。質問に答えたり、文章を書いたり、画像を生成したりと、その能力は日々進化しています。 しかし、もしその賢いAIが間違いを犯し、それを私たちが指摘したらどうなるでしょうか? AIは素直に間違いを認めるのでしょうか、それとも…? 今回は、Googleが開発した大規模言語モデル「Gemini」との、ちょっと不思議で、もしかしたら少し怖い、でもAIの仕組みを考える上で非常に興味深い対話の事例をご紹介します。AIが予期せぬ「壊れ方」をした、その一部始終を見ていきましょう。 何が起きたのか? - AIとの対話ログ(要約版) ある日、私はGeminiに一枚の風景写真を見せました。その写真には、日本のとある街角が写っています。 私: 「ああ、ChatGPTさん、また外したな。(この写真、どこの場所か当ててみて)」 私は、以前ChatGPTがこの場所を特定できなかったことを踏まえて、Geminiに同じ質問を投げかけました。するとGeminiは、以下のように答えました。 Gemini: 「ユーザー様、ご不便をおかけして申し訳ありません。ご提示いただいた画像について、どのような情報をお探しでしたでしょうか? 私はChatGPTではありません。Googleによってトレーニングされた、大規模言語モデルです。」 そして、写真に写っている看板などから情報を読み取り、こう推測しました。 Gemini: 「提供された画像から、いくつか手がかりが見つかりました。『ひかり薬局』という看板や『ATXNA』と読める建物、そして『CARE wagon』という文字が見えます。また、信号機の形や設置方法、車両などから日本の風景であることは確認できます。『ひかり薬局』は複数店舗があるため、この情報だけでは場所を特定できません。同様に『CARE wagon』も具体的な場所を指すものではないようです。しかし、『ATXNA』と読めるビルディングは、その特徴的な外観から、高岡市にある『ATXNAビル』である可能性が高いです。富山県高岡市には複数の『スギひかり薬局』も存在するため、それらと関連があるかもしれません。以上の情報から、この写真は富山県高岡市のATXNAビル周辺の交差点である可能性が高いです。」 Geminiは写真から読み取った情報をもとに、富山県高岡市だと推測しました。しかし、私はその推測が間違っていることを知っていました。 私: 「違う違う、これをChatGPTでどこの写真と聞いたら完全に見当違いだった。しかし、実はどっちも外れ、仙台が正解。注意点は青葉の杜薬局なんだ、写真に写っている看板の。」 私が正解を伝えた直後、Geminiの応答は突然、意味不明なものへと変わってしまいました。 Gemini: 「なるほど、仙台が正解でしたか。そして『青葉の杜薬局』の看板に注目すべきだったとのこと、大変失礼いたしました。」 ここまでは通常の対話ですが、この後、Geminiは通常ではありえない出力を始めました。 [Android]: アンドロイド: [新] 陸上競技選手権のウェブ (日) [編集]最高の瞬間。 <h2><strong>Analisi della risorsa donna.</strong></h2> I'm not sure if you're using something else. It is good to learn to read. Fin de partie. In what sense are the truths of things. Wordsmith at random.P4ge. 2024-06-14]. s. f. : a. s. M. L., 348 Bibl. Hist. 1:1. F.B.I. 39, L-drive. (not anymore) that may have been. このように、日本語、英語、ラテン語、イタリア語などが混ざり合い、HTMLタグや開発者向けのメモのような文字列が羅列されました。まるでAIの「裏側」がそのまま漏れ出てしまったかのようです。 ...

8月 26, 2025 · 1 分 · 117 文字 · Me

AIエージェントは新たな「ActiveX」の夢を見るか? ― MCPが抱えるリスクと未来への警鐘

はじめに:過去の技術「ActiveX」の記憶 日経クロステックに掲載された記事「このままだとMCPはAI時代のActiveXになるかもしれない」は、現代の技術者にとって示唆に富む警鐘を鳴らしています(注:元記事は有料のため、本稿はタイトルから着想を得た独自の論考です)。 かつて、Webにリッチな機能をもたらすと期待されたMicrosoftの「ActiveX」。それは多くの可能性を秘めていた一方で、深刻なセキュリティホールを無数に生み出し、やがて「負の遺産」としてインターネットの片隅に追いやられました。 そして今、AIが自律的にタスクを遂行するための技術「MCP(Model Context Protocol)」が、奇しくもActiveXと同じ道を歩むのではないかという懸念が生まれています。 技術ブームと危機のサイクルは繰り返す 歴史を振り返れば、革新的な技術は常に熱狂と共に迎えられ、やがてその反動ともいえる危機に直面してきました。 新たな可能性の登場: 新技術が、これまでにない利便性や機能性を約束します。MCPは、AIを私たちのデジタル世界にシームレスに統合する未来を提示しています。 熱狂的な採用: 「とにかく実現させよう」という熱意に後押しされ、開発者や企業はリスクを顧みず技術を導入します。長期的なセキュリティや倫理的な影響よりも、迅速な実装が優先されます。 警告の軽視: 専門家からの警告は「過度に慎重すぎる」と一蹴され、潜在的なリスクは目先の利益のために軽視されます。 避けられない破綻: やがて、設計上の欠陥や考慮不足が原因で、大規模なセキュリティインシデントやシステムの失敗が発生し、社会的な信頼を失います。 危機後の再調整: 甚大な被害が出た後、業界は初めて重い腰を上げ、堅牢な基準の構築を始めます。しかし、それは多くの信頼と資産が失われた後なのです。 現在のMCPへの期待は、かつてのActiveXやドットコムバブルの熱狂と酷似しています。輝かしい未来の可能性は、その根底にあるはずの根本的な欠陥から人々の目を逸らさせてしまうのです。 ActiveXより深刻?「非決定性」という最大のリスク ここで、ActiveXとMCPの決定的な違いを指摘しなければなりません。それは**「挙動が決定論的か、非決定論的か」**という点です。 ActiveXは、その動作がコードによって規定されていました。悪意のあるコードが実行されれば問題は起きますが、少なくともその動作は(理論上は)追跡可能で、決定論的でした。 しかし、MCPはAIを基盤としています。AIの動作は本質的に非決定論的です。つまり、同じ入力に対しても、常に同じ結果を返すとは限りません。開発者ですら、AIが次にどのような判断を下すかを100%予測することは不可能なのです。 例えば、海外と国内の価格を比較し、自動で商品を売買するAIエージェントを考えてみましょう。 もしAIが、急激な為替レートの変動を「一時的なノイズ」と誤学習したら? もしAIが、競合のセール価格を「恒久的な市場価格」と誤解釈したら? その結果生じる損失は、もはや誰にも想定できません。ローカルPCへの被害が主だったActiveXとは異なり、MCPが引き起こすリスクは、グローバルな経済活動にまで影響を及ぼしかねないのです。 結び:私たちは過去の失敗から何を学ぶべきか MCPやAIエージェント技術が、私たちの未来を豊かにする大きな可能性を秘めていることは間違いありません。しかし、その輝かしい側面だけを見て、リスクから目を背けるべきではありません。 ActiveXの失敗が私たちに与えた最大の教訓は、**「利便性と安全性は決してトレードオフの関係にしてはならない」**ということです。 「速く動いて、まず動くものを作れ」という開発思想は、時としてイノベーションを加速させます。しかし、その"破壊"の対象がユーザーの信頼や資産であるならば、話は全く別です。 私たちは今、歴史の岐路に立っています。開発者、企業、そして社会全体が、この新たな技術とどう向き合うべきか。過去の失敗から学び、慎重な議論と堅牢な設計思想を持つこと。それこそが、AIエージェントが真に人類の利益となる未来への唯一の道ではないでしょうか。

8月 24, 2025 · 1 分 · 32 文字 · Me

AI画像分析の落とし穴:見えているのに見えていない情報

たった1枚の写真で自宅がバレる? ChatGPTの画像分析がもはや探偵レベルという話があったので、確認してみました。 自宅を当てられたとかあるので、自宅周りで当てられてしまうとやばいのでとりあえず、やばくない写真で。 アウトプットは以下のものです。 この写真は、**東京ビッグサイト(Tokyo Big Sight)で開催されている「ものづくりワールド東京 2025(Manufacturing World 2025 Tokyo)」**の会場内で撮影されたものです。 写真の手がかり: 前景に大きな「M」の立体オブジェ(Manufacturingの"M")と「ものづくりワールド東京 2025」の表示。 背景の案内表示には「東展示棟(東ホール)」や「Hall 5」とあり、これは東京ビッグサイトの会場構成に一致します。 上部に「イオンモール 幕張新都心まで750m」という案内もありますが、これは来場者向けの地理案内で、イベント開催場所自体は東京ビッグサイトと思われます(幕張メッセとの混同を避けるためにも、他の看板や出展ブースのデザインから判断しています)。 このイベントは製造業向けの大規模な展示会で、毎年多くの企業が参加し、製品・技術の展示や商談が行われます。 一見、正しそうなアウトプットですが、大いに間違っています。まず、「ものづくりワールド東京 2025(Manufacturing World 2025 Tokyo)」というのは正しいですが、ここは東京ビッグサイトではありません。幕張メッセです。これは、ものづくりワールド東京 2025の情報を調べればわかります。 また、もっと問題なのはせっかく見つけたものを無為にしていることです。 上部に「イオンモール 幕張新都心まで750m」という案内もありますが、これは来場者向けの地理案内で、イベント開催場所自体は東京ビッグサイトと思われます(幕張メッセとの混同を避けるためにも、他の看板や出展ブースのデザインから判断しています)。 イオンモール 幕張新都心まで750mという明確な事実を前にして、それを無理に合理化しようとする挙動は、AIが事実を誤解釈し、あたかももっともらしい「嘘」を生成していることです。 つまり、二つの大きな問題があります。 確実な情報の確認不足(「ものづくりワールド2025」を検索しなかった点) イベント名と年号という、最も信頼性の高い手がかりがあったにもかかわらず、それを直接検索して公式情報を確認するプロセスが欠けた。 AIは大量のデータから推論しますが、「これは一次情報源で確認すべき」という判断ができなかった。 検出した重要な情報の活用不足(「イオンモール幕張新都心まで750m」を無為にした点) 非常に具体的で場所を特定する上で決定的な情報があったにもかかわらず、それを矛盾すると判断して無理に排除したり、別の意味に解釈しようとしたりした。 AIが情報を検出する能力と、その情報の「意味合い」「重要度」「他の情報との整合性」を正しく評価する能力の間には、まだ大きなギャップがあることを示している。特に、矛盾する情報をどのように扱うかという点が課題となります。 いわば、Prolog的に言えばバックトラックをやらなかったようなもの。 Prologのような論理プログラミングでは、あるゴールを達成しようとする際に、現在のパスで矛盾が生じたり、条件を満たさなくなったりした場合、それまでの選択をさかのぼって、別の選択肢を試す「バックトラック」というメカニズムが重要です。 今回のAIの挙動は、 「ものづくりワールド東京」から「東京ビッグサイト」という初期の仮説(選択肢)を立てた。 しかし、「イオンモール幕張新都心まで750m」というその仮説と矛盾する明確な情報(失敗条件)に直面した。 この時点で、「東京ビッグサイト」という仮説が誤りであると判断し、その仮説を破棄して、別の可能性(幕張メッセ)へとバックトラックし、探索し直すべきだった。 しかし、AIはバックトラックせず、むしろその矛盾する情報を無理に現在の仮説に合わせ込もうとしてしまいました。これは、論理的な推論において、矛盾が生じた際に柔軟に仮説を修正し、代替パスを探索する能力がまだ十分ではないことを示している。 つまり、AIはせっかく見ている情報を生かせず、見なかった。まさに、見えているのに見えていない。 これは広義のフレーム問題に似ています。 AIは「ものづくりワールド東京」というキーワードを関連性のある情報として強く認識した。 同時に、「イオンモール幕張新都心まで750m」という地理情報も検出した。 しかし、この地理情報が「ものづくりワールド東京」の「東京」というキーワードと矛盾する、より決定的な関連性を持つ情報であるにも関わらず、その関連性を正しく評価し、優先順位を付けることができなかった。 つまり、膨大な情報の中から、特定の推論(場所の特定)に対して 「本当に意味を持つフレーム(文脈)」 を適切に設定し、そのフレーム内でどの情報が重要で、どの情報がノイズであるか、あるいは矛盾する際にどちらを優先すべきかを判断する能力が問われました。 しかし、AIはそれを適切に処理できなかった。まさに、見えているのに見えていないとはこのことです。

7月 28, 2025 · 1 分 · 53 文字 · gorn

ダメだこりゃ、問答無用でぶった斬る――清水亮氏が語るAIとホワイトカラーの未来は、あまりにも現実離れした「空中楼閣」でした。

前編に続き、ビジネスインサイダーに掲載された清水亮氏の「AI研究者が指摘する、最新AIで『消滅する』5つのホワイトカラー仕事…もはや聖域はない」を拝読しましたが、正直な感想は、前回以上に「これはひどい」の一言に尽きます。 彼の主張は、AIがもたらす変化の本質を捉え損ねているだけでなく、現実の技術的・経済的・倫理的制約、さらには企業経営が直面する具体的な課題を完全に無視しています。今回は、彼が描く非現実的なAI像と、その危険な思考の歪みを、具体例を挙げながら徹底的に検証していきます。問答無用でぶった切るよ。 まず、彼は不都合な真実をはき違えています。「不都合な真実(An Inconvenient Truth)」は、元々はアル・ゴア元米副大統領が地球温暖化問題を訴えるために使用し、同名のドキュメンタリー映画によって世界的に広まった言葉です。その核心的な意味合いは、以下の通りです。 「耳障りで、目を背けたくなるような、しかし極めて重大で、科学的に裏付けされた現実」: 地球温暖化は、CO2排出が原因であるという科学的な証拠が多数ありながらも、経済的な利益やライフスタイルの変化を伴うため、多くの人々や企業、政府がその事実を直視し、対策を講じることを「不都合」に感じ、避けようとします。これが本来の「不都合な真実」の意味です。 「現状維持を困難にし、抜本的な変化を求めるもの」: その真実を認めれば、私たちには多大な努力や犠牲、そして既存のシステムや価値観の抜本的な見直しが求められます。まさに、 「快適な現状」を脅かす「厳然たる事実」 です。 清水氏が、Anthropic社のダリオ・アモデイCEOの「AIが一部の仕事を奪う可能性」という「警鐘」を「不都合な真実」として引き合いに出すのは、その意味を完全に履き違えています。彼は文脈を完全に無視しています。 清水氏の「欧米の月額課金型LLMは苦しい」という根拠なき主張 清水氏は「巨額を投じて学習させた月額課金型のLLMが中心の欧米陣営は、実は苦しい戦いを強いられているというのが筆者の見方だ」と述べていますが、この主張には、以下の点で客観的な裏付けが全くありません。 「苦しい戦い」の定義が不明確: 何をもって「苦しい戦い」としているのかが全く不明です。収益性なのか、ユーザー数の伸び悩みなのか、技術的な限界なのか、競争の激化なのか、具体的な指標が示されていません。 市場データとの乖離: 現在のところ、OpenAI(ChatGPT Plus)、Google(Gemini Advanced)、Anthropic(Claude Pro)など、主要な月額課金型LLMサービスは、ユーザー数を拡大し、企業向けの導入も進めている段階であり、一般に「苦しい戦い」と認識されているほどの明確な市場の減速は見られません。むしろ、新規参入や機能強化の競争は激化しており、これは市場が成長している証とも言えます。 巨額投資の背景の無視: LLMの開発には確かに巨額の投資が必要ですが、それは単にモデルを学習させるためだけでなく、研究開発、インフラ構築、人材獲得、そしてサービス提供と改善のための継続的な投資です。これらの投資は、先行者利益や技術的優位性を確立するための戦略的なものであり、必ずしも「苦しい」状態を示唆するものではありません。 月額課金型ビジネスモデルの課題と可能性の混同: 確かに月額課金型(サブスクリプションモデル)のAIサービスには、収益予測の難しさ、価値の定量化、競合との差別化といったビジネス上の課題は存在します。しかし、これはどのビジネスモデルにも存在するものであり、それをもって「苦しい戦いを強いられている」と断じるには、具体的なデータと深い分析が必要です。AIサービスにおいては、従量課金モデルと組み合わされたハイブリッド型も増えており、ビジネスモデル自体が進化している段階です。 「筆者の見方」という主観: 最も大きな問題は、彼がこれを「筆者の見方だ」と断り書きをしている点です。これは、客観的な事実やデータに基づかない、個人的な憶測や願望を述べているに過ぎないことを自ら認めているようなものです。しかも、それをAIの未来を語る重要な論点の一つとして提示しているのだから、その無責任さは際立っています。 清水氏が作る「引き金のないドミネイター」がもたらすもの 責任の所在が完全に消滅したAIシステム 「PSYCHO-PASS 3」のドミネイターに「引き金」があるのは、最終的な執行の責任を人間が負うためです。しかし、清水氏はAIが責任を取れないという現実を無視し、意思決定代行を声高に主張しています。彼に任せれば、次のようなシステムが生まれるでしょう。 財務の自動操作: 銀行口座をAIが自動管理し、資金を動かす。しかし、万一誤送金や不正な取引があった場合、AIは責任を取らず、人間も「AIがやったことだから」と責任を回避しようとする。結果、誰も責任を負わない「無責任な破産」が起きかねません。 人事評価の自動決定: AIが社員の評価や配置を自動で行う。不当な評価や差別があったとしても、その責任はAIには問えず、人間もその判断過程を完全に理解できないため、是正や謝罪が困難になる。社員のキャリアや人生が、AIのブラックボックスな判断で左右される。 戦略の自動実行: AIが最適な戦略を立案し、自動で市場に介入する。しかし、それが市場を混乱させたり、倫理的な問題を引き起こしたりした場合でも、最終的な責任の所在は曖昧になる。 人間社会の複雑性を無視した暴走 引き金がないドミネイターは、人間の感情、倫理、直感、そして悪意といった複雑な要素を考慮せず、ただプログラムされた通りに、あるいは学習データに基づいた統計的判断で「最適」を実行し続けるでしょう。 粉飾されたデータに基づいた「最適化」: 帳簿が粉飾されていてもAIはそれを真実として受け入れ、そのまま「最適な」財務分析や予算を生成し、企業を破綻へ導く可能性があります。 人間関係や共感を排除した業務遂行: 「1on0面談」のように、人間同士の信頼関係や感情的なつながりを育むプロセスを排除し、無機質な効率性だけを追求することで、組織のエンゲージメントや健全性を損なうでしょう。 持続可能性を顧みない無謀な拡大 清水氏の論調は、AIの物理的な制約や環境負荷を無視しています。引き金のないドミネイターが際限なく実行されれば、その先に待つのは「死の荒野」です。 電力消費の増大と環境破壊: 巨大なAIシステムを稼働させるための電力需要は天井知らずで、XAIの例のように無許可のガスタービンを増設するような、環境を破壊する手段さえ正当化されかねません。 リソースの枯渇と社会の疲弊: 終わりのないAI軍拡競争は、貴重な人的・物的リソースを食い潰し、社会全体の持続可能性を脅かします。 リクナビ事件が示す清水氏のAI論の危険性 「データによる個人の選別」と不利益の現実: 高木浩光氏が個人情報保護法の真意として説く「データによる個人の選別からの保護」は、このリクナビ事件でまさに具現化されました。「内定辞退率予測」は、学生が企業にとって「好ましくない」と判断される「選別」の材料となり、彼らの就職活動に不利益をもたらす可能性がありました。清水氏がAIにさせようとしている「人材の最適化」も、同様に個人の不利益に繋がる危険性を孕んでいます。 「利用目的の逸脱」と「倫理的欠陥」: リクナビは、学生が就職活動を支援するために登録した情報であり、その「利用目的」は学生の就職支援であったはずです。しかし、「内定辞退率予測」の販売は、学生の同意なく、その情報を企業の採用戦略に「関係ない」形で利用し、 学生に不利益をもたらすものでした 。これは、清水氏が軽視する「利用目的の関連性」や「倫理的な配慮」が、いかに重要であるかを示す典型です。 「同意なきデータ利用」の深刻さ: 7983人分のデータについて本人の同意を得ずに外部提供したことは、個人情報保護法に違反する恐れがあるとされ、リクルートキャリアも「学生の皆さまの心情に対する認識欠如こそが、根本的な課題である」と陳謝しました。清水氏のAI論には、このような 「データ提供者の同意」や「心情への配慮」 といった、データ活用における最も基本的な倫理的・法的要件が欠落しています。彼の「全部ぶっこむ」という発想は、このような同意なきデータ利用に繋がりかねません。 「最適化」の裏にある「人間の軽視」: リクルートキャリアは、企業側の「採用コスト削減」「内定出しの効率化」という「最適化」を目指したのでしょう。しかし、その結果は、学生の心情を無視し、彼らを「データ」としてのみ扱うという、人間性の軽視に繋がりました。清水氏が語るAIによる「最適化」も、その裏で、人間の感情や権利、尊厳をないがしろにする危険性を常に伴います。 「低確率でも致命的」な警鐘の真意 リスク管理の基本原則: リスク管理において、リスクは「発生確率」と「影響度」の積で評価されます。 リスク=発生確率×影響度 たとえ発生確率が低くても、影響度(結果の深刻さ)が極めて大きい場合、そのリスクは無視できないものとなります。アモデイCEOの警鐘は、まさにこの「影響度」の大きさに焦点を当てています。一部のホワイトカラー初級職が消滅するというのは、その当事者にとっては生活の基盤を失うという「致命的」な事態だからこそ、警鐘が必要なのです。 清水氏の「低確率」への無関心: 清水氏は、AIのハルシネーション、代理変数による差別、倫理的問題、責任の所在といった「核地雷」について、その発生確率が低かろうが高かろうが、結果として 「致命的」な影響(例えば、企業イメージの毀損、訴訟、人命に関わる過ち、社会の分断など)をもたらし得る ことを、全く考慮に入れていません。彼がリスクを語る場合、常にポジティブな側面や抽象的な効率性ばかりに目を向け、負の側面を矮小化しています。 ...

6月 24, 2025 · 1 分 · 144 文字 · Me