前編に続き、ビジネスインサイダーに掲載された清水亮氏の「AI研究者が指摘する、最新AIで『消滅する』5つのホワイトカラー仕事…もはや聖域はない」を拝読しましたが、正直な感想は、前回以上に「これはひどい」の一言に尽きます。

彼の主張は、AIがもたらす変化の本質を捉え損ねているだけでなく、現実の技術的・経済的・倫理的制約、さらには企業経営が直面する具体的な課題を完全に無視しています。今回は、彼が描く非現実的なAI像と、その危険な思考の歪みを、具体例を挙げながら徹底的に検証していきます。問答無用でぶった切るよ。

まず、彼は不都合な真実をはき違えています。「不都合な真実(An Inconvenient Truth)」は、元々はアル・ゴア元米副大統領が地球温暖化問題を訴えるために使用し、同名のドキュメンタリー映画によって世界的に広まった言葉です。その核心的な意味合いは、以下の通りです。

  1. 「耳障りで、目を背けたくなるような、しかし極めて重大で、科学的に裏付けされた現実」:

    地球温暖化は、CO2排出が原因であるという科学的な証拠が多数ありながらも、経済的な利益やライフスタイルの変化を伴うため、多くの人々や企業、政府がその事実を直視し、対策を講じることを「不都合」に感じ、避けようとします。これが本来の「不都合な真実」の意味です。

  2. 「現状維持を困難にし、抜本的な変化を求めるもの」:

    その真実を認めれば、私たちには多大な努力や犠牲、そして既存のシステムや価値観の抜本的な見直しが求められます。まさに、 「快適な現状」を脅かす「厳然たる事実」 です。

清水氏が、Anthropic社のダリオ・アモデイCEOの「AIが一部の仕事を奪う可能性」という「警鐘」を「不都合な真実」として引き合いに出すのは、その意味を完全に履き違えています。彼は文脈を完全に無視しています。

清水氏の「欧米の月額課金型LLMは苦しい」という根拠なき主張

清水氏は「巨額を投じて学習させた月額課金型のLLMが中心の欧米陣営は、実は苦しい戦いを強いられているというのが筆者の見方だ」と述べていますが、この主張には、以下の点で客観的な裏付けが全くありません。

  • 「苦しい戦い」の定義が不明確:

    何をもって「苦しい戦い」としているのかが全く不明です。収益性なのか、ユーザー数の伸び悩みなのか、技術的な限界なのか、競争の激化なのか、具体的な指標が示されていません。

  • 市場データとの乖離:

    現在のところ、OpenAI(ChatGPT Plus)、Google(Gemini Advanced)、Anthropic(Claude Pro)など、主要な月額課金型LLMサービスは、ユーザー数を拡大し、企業向けの導入も進めている段階であり、一般に「苦しい戦い」と認識されているほどの明確な市場の減速は見られません。むしろ、新規参入や機能強化の競争は激化しており、これは市場が成長している証とも言えます。

  • 巨額投資の背景の無視:

    LLMの開発には確かに巨額の投資が必要ですが、それは単にモデルを学習させるためだけでなく、研究開発、インフラ構築、人材獲得、そしてサービス提供と改善のための継続的な投資です。これらの投資は、先行者利益や技術的優位性を確立するための戦略的なものであり、必ずしも「苦しい」状態を示唆するものではありません。

  • 月額課金型ビジネスモデルの課題と可能性の混同:

    確かに月額課金型(サブスクリプションモデル)のAIサービスには、収益予測の難しさ、価値の定量化、競合との差別化といったビジネス上の課題は存在します。しかし、これはどのビジネスモデルにも存在するものであり、それをもって「苦しい戦いを強いられている」と断じるには、具体的なデータと深い分析が必要です。AIサービスにおいては、従量課金モデルと組み合わされたハイブリッド型も増えており、ビジネスモデル自体が進化している段階です。

  • 「筆者の見方」という主観:

    最も大きな問題は、彼がこれを「筆者の見方だ」と断り書きをしている点です。これは、客観的な事実やデータに基づかない、個人的な憶測や願望を述べているに過ぎないことを自ら認めているようなものです。しかも、それをAIの未来を語る重要な論点の一つとして提示しているのだから、その無責任さは際立っています。

清水氏が作る「引き金のないドミネイター」がもたらすもの

  1. 責任の所在が完全に消滅したAIシステム

    「PSYCHO-PASS 3」のドミネイターに「引き金」があるのは、最終的な執行の責任を人間が負うためです。しかし、清水氏はAIが責任を取れないという現実を無視し、意思決定代行を声高に主張しています。彼に任せれば、次のようなシステムが生まれるでしょう。

    財務の自動操作: 銀行口座をAIが自動管理し、資金を動かす。しかし、万一誤送金や不正な取引があった場合、AIは責任を取らず、人間も「AIがやったことだから」と責任を回避しようとする。結果、誰も責任を負わない「無責任な破産」が起きかねません。

    人事評価の自動決定: AIが社員の評価や配置を自動で行う。不当な評価や差別があったとしても、その責任はAIには問えず、人間もその判断過程を完全に理解できないため、是正や謝罪が困難になる。社員のキャリアや人生が、AIのブラックボックスな判断で左右される。

    戦略の自動実行: AIが最適な戦略を立案し、自動で市場に介入する。しかし、それが市場を混乱させたり、倫理的な問題を引き起こしたりした場合でも、最終的な責任の所在は曖昧になる。

  2. 人間社会の複雑性を無視した暴走

    引き金がないドミネイターは、人間の感情、倫理、直感、そして悪意といった複雑な要素を考慮せず、ただプログラムされた通りに、あるいは学習データに基づいた統計的判断で「最適」を実行し続けるでしょう。

    粉飾されたデータに基づいた「最適化」: 帳簿が粉飾されていてもAIはそれを真実として受け入れ、そのまま「最適な」財務分析や予算を生成し、企業を破綻へ導く可能性があります。 人間関係や共感を排除した業務遂行: 「1on0面談」のように、人間同士の信頼関係や感情的なつながりを育むプロセスを排除し、無機質な効率性だけを追求することで、組織のエンゲージメントや健全性を損なうでしょう。

  3. 持続可能性を顧みない無謀な拡大

    清水氏の論調は、AIの物理的な制約や環境負荷を無視しています。引き金のないドミネイターが際限なく実行されれば、その先に待つのは「死の荒野」です。

    電力消費の増大と環境破壊: 巨大なAIシステムを稼働させるための電力需要は天井知らずで、XAIの例のように無許可のガスタービンを増設するような、環境を破壊する手段さえ正当化されかねません。 リソースの枯渇と社会の疲弊: 終わりのないAI軍拡競争は、貴重な人的・物的リソースを食い潰し、社会全体の持続可能性を脅かします。

リクナビ事件が示す清水氏のAI論の危険性

  • 「データによる個人の選別」と不利益の現実:

    高木浩光氏が個人情報保護法の真意として説く「データによる個人の選別からの保護」は、このリクナビ事件でまさに具現化されました。「内定辞退率予測」は、学生が企業にとって「好ましくない」と判断される「選別」の材料となり、彼らの就職活動に不利益をもたらす可能性がありました。清水氏がAIにさせようとしている「人材の最適化」も、同様に個人の不利益に繋がる危険性を孕んでいます。

  • 「利用目的の逸脱」と「倫理的欠陥」:

    リクナビは、学生が就職活動を支援するために登録した情報であり、その「利用目的」は学生の就職支援であったはずです。しかし、「内定辞退率予測」の販売は、学生の同意なく、その情報を企業の採用戦略に「関係ない」形で利用し、 学生に不利益をもたらすものでした 。これは、清水氏が軽視する「利用目的の関連性」や「倫理的な配慮」が、いかに重要であるかを示す典型です。

  • 「同意なきデータ利用」の深刻さ:

    7983人分のデータについて本人の同意を得ずに外部提供したことは、個人情報保護法に違反する恐れがあるとされ、リクルートキャリアも「学生の皆さまの心情に対する認識欠如こそが、根本的な課題である」と陳謝しました。清水氏のAI論には、このような 「データ提供者の同意」や「心情への配慮」 といった、データ活用における最も基本的な倫理的・法的要件が欠落しています。彼の「全部ぶっこむ」という発想は、このような同意なきデータ利用に繋がりかねません。

  • 「最適化」の裏にある「人間の軽視」:

    リクルートキャリアは、企業側の「採用コスト削減」「内定出しの効率化」という「最適化」を目指したのでしょう。しかし、その結果は、学生の心情を無視し、彼らを「データ」としてのみ扱うという、人間性の軽視に繋がりました。清水氏が語るAIによる「最適化」も、その裏で、人間の感情や権利、尊厳をないがしろにする危険性を常に伴います。

「低確率でも致命的」な警鐘の真意

  • リスク管理の基本原則:

    リスク管理において、リスクは「発生確率」と「影響度」の積で評価されます。

    リスク=発生確率×影響度 たとえ発生確率が低くても、影響度(結果の深刻さ)が極めて大きい場合、そのリスクは無視できないものとなります。アモデイCEOの警鐘は、まさにこの「影響度」の大きさに焦点を当てています。一部のホワイトカラー初級職が消滅するというのは、その当事者にとっては生活の基盤を失うという「致命的」な事態だからこそ、警鐘が必要なのです。

  • 清水氏の「低確率」への無関心:

    清水氏は、AIのハルシネーション、代理変数による差別、倫理的問題、責任の所在といった「核地雷」について、その発生確率が低かろうが高かろうが、結果として 「致命的」な影響(例えば、企業イメージの毀損、訴訟、人命に関わる過ち、社会の分断など)をもたらし得る ことを、全く考慮に入れていません。彼がリスクを語る場合、常にポジティブな側面や抽象的な効率性ばかりに目を向け、負の側面を矮小化しています。

  • 社会的な備えの必要性:

    「低確率でも致命的」なリスクに対しては、社会全体として備えが必要です。雇用に関するAIの進化予測に対して警鐘が鳴らされるのは、再教育の機会の提供、社会保障制度の見直し、新たな雇用創出への投資など、社会的なセーフティネットや転換期の準備を促すためです。アモデイCEOは、技術の進歩を単に礼賛するのではなく、その社会的な影響を予見し、対応を呼びかける「責任ある技術者」としての姿勢を示しています。

なぜ清水氏の議論は「空中楼閣」なのか

  • 「責任」という重力からの乖離:

    最も決定的なのは、AIが 「責任を取らない」 という事実を無視している点です。彼の提唱するAIによる「意思決定代行」は、最終的に誰も責任を負わないシステムを構築しようとするものであり、これは法治国家である現代社会において、建築基準を満たさない建物が建設できないのと同じように、倫理的にも法的にも成立し得ない「空中楼閣」です。こども家庭庁の虐待判定AIの見送りが示したように、命や尊厳に関わる問題で、責任の曖昧なAIを導入することは許されません。

  • 「データの質」という基礎の欠如: 彼が「全部のデータをぶっこめばいい」と考えるのは、 データの「質」や「真実性」 という建物の基礎を軽視していることに他なりません。粉飾されたデータやバイアスを含んだデータの上にどれだけ精巧なAIモデルを構築しようとも、それは脆い砂上の楼閣です。高木氏が指摘する「関係ないデータを用いた個人の評価は差別」という点も、この基礎部分の歪みを示しています。

  • 「人間」という居住者の不在:

    彼の議論は、AIが人間社会に実装される際に避けられない、 人間の感情、倫理、直感、創造性、そして何よりも「自由」 といった要素を軽視しています。GAMINシステムの事例が示したように、良かれと思ってのAIによる「選別」が、人々の自由を阻害し、不利益をもたらす可能性を彼は全く理解していません。人間の「引き金」を外し、AIに判断を丸投げしようとする姿勢は、その楼閣に人間が快適に住むことを想定していないかのようです。

  • 「法と倫理」という建築基準の無視:

    高木氏が詳述した個人情報保護法、OECDガイドライン、フランスのデータ保護法などの「真意」は、AIが社会で機能するための重要な「建築基準」です。しかし、清水氏はこれらの法的・倫理的な枠組みを全く理解せず、あるいは意図的に無視しています。建築基準を満たさない建物が安全でないように、法と倫理を無視したAI社会は、決して安全で持続可能なものではありません。

清水氏の議論が「妄想」である理由

  • 「都合の良い」情報の利用:

    アモデイCEOの言葉は、AIの負の側面に対する「警鐘」であり、社会に「準備と対処」を促すものです。しかし清水氏は、それを自身の「AIによる全面的な代替」という極論を正当化する道具として利用しています。これは、目を背けたくなるような「不都合な事実」ではなく、むしろ自身の主張を誇張するために「都合良く使える」情報を選んで使っているに過ぎません。

  • 「科学的裏付け」と「普遍性」の欠如:

    アモデイCEOの予測は、あくまで「可能性」であり、特定の分野の雇用動向に関する予測です。地球温暖化のような、普遍的な科学的裏付けがあり、地球規模での抜本的な行動変容を迫るような性質のものではありません。 清水氏は、自身がAIの 物理的・経済的・倫理的「核地雷」 を無視し続けていることこそが、本来の「不都合な真実」であると認識すべきです。

  • 「危機感のすり替え」:

    清水氏は、AIの「責任問題」「代理変数による差別」「莫大なインフラコスト」「環境負荷」といった、本当に社会が目を背けがちなAIの「不都合な真実」については一切触れません。その代わりに、「AIによる失業」という、ある意味で世間が既に関心を持っている、しかし彼の論にとって都合の良い側面を、さも「誰も触れたがらない真実」であるかのように提示しているのです。これは、論点をすり替えるための巧妙なレトリックです。

陳腐な課題感

  • 「データのサイロ化と質の低さ」:それ、2010年代のDX初期論です

    確かにサイロ化は依然として課題ですが、現在ではCDP(カスタマーデータプラットフォーム)やDWH(データウェアハウス)統合の取り組みが進み、技術的な解決策は出揃っている段階です2。問題はもはや「サイロ化していること」ではなく、“何のために統合するのか”という戦略的意図の欠如です。

    つまり、清水氏の指摘は「データが散らばっているからAIが使えない」という初歩的な因果関係にとどまり、組織設計や意思決定構造の問題に踏み込んでいない。これは、技術の問題を“技術の未熟さ”に還元するという、典型的な誤診です。

  • 「オフショア開発の足枷」:それ、むしろ日本側の構造問題です

    インドや中国の技術者の報酬が上がっているのは事実ですが、それはグローバル市場での人材価値の正当な反映であり、「ティア2しか雇えない」と嘆くのは日本企業の報酬設計と人材戦略の失敗です4。

    しかも、現在のオフショアは単なるコスト削減ではなく、GCC(グローバル・ケイパビリティ・センター)としての高度化が進んでおり、“上流工程を任せられるかどうか”が問われている。清水氏の議論は、2000年代の「人月単価」思考に囚われたままで、現代の人材流動性や越境的チーム設計の現実を見ていません。

  • 「デジタル人材の不足」:それ、何年言い続けるんですか?

    IPAや経産省の調査でも、AI×ビジネス人材の不足は構造的課題として認識されていますが6、それは教育制度、企業文化、評価制度、キャリアパス設計の問題であり、「人がいない」と言って済む話ではありません。

    むしろ、清水氏のような論者が「人がいないからAIが進まない」と言い続けることで、企業が“育てる責任”から逃げる口実になっている。これは、人材不足という“言説のサイロ化”です。

清水氏が「不都合な真実」という言葉を使うのは、彼が議論に重みと権威性を持たせたいからでしょう。しかし、その使い方自体が、彼の思考の 浅薄さ、情報の正確性に対する無頓着さ、そして言論に対する不誠実な姿勢 を露呈していると言わざるを得ません。端的に言えば、彼の「不都合な真実」はアテンション装置にすぎません。

しかし、清水氏はそれを機会があるかのように使います。これは、経営者としての目線でしかありませんが、経営者としてもあまりにも不誠実です。AIに関する議論の最後に「覚悟」という精神論を持ち出すのは、まさに笑止千万です。

清水氏はAI導入の「覚悟」を説きますが、彼の議論にはAIを安全かつ倫理的に、そして経済的に現実的な形で導入するための具体的な方法論が皆無です。

  • AIの「責任」問題をどう解決するのか?
  • 「関係ないデータ」を使わないAIシステムをどう構築するのか?
  • H100クラスのGPUを個人や中小企業がどう調達・運用するのか?
  • 複雑なライセンス問題をどうクリアするのか? これらの具体的な課題への回答を放棄し、代わりに「覚悟」という抽象的な言葉で締めくくるのは、無責任極まりない態度です。

彼が言う「AI革命」は、まるでAIが魔法のように全てを解決し、それに「適応」しない者は滅びるという、 非常に単純化された、恐怖を煽るレトリック です。しかし、こども家庭庁の虐待判定AIの失敗が示すように、AIは万能ではなく、人間の介入と責任、そして倫理的な配慮が不可欠なツールに過ぎません。真の「適応」とは、AIの限界とリスクを理解し、賢く、責任を持って活用する「知性」と「判断力」を問われるものです。

「問われているのは経営者としての『覚悟』だ」という言葉は、聞こえは良いですが、実際には、具体的な解決策を示さずに、困難な課題を全て経営者の「覚悟」という曖昧な概念に押し付けるものです。

経営者が求められているのは、精神論ではなく、現実的なリスクを見極め、法務、倫理、技術、そして財務の側面から実現可能性を評価し、具体的な戦略を立案・実行する 「経営手腕」と「責任」 です。清水氏の言葉は、この経営の本質を全く理解していません。

清水氏の議論が最後に「覚悟」という精神論に陥るのは、彼が提示してきたAIに関する「空中楼閣」が、論理的にも現実的にも破綻していることの明白な証拠です。具体的な課題への答えが出せないからこそ、彼は最後に 無責任な「精神論」 を持ち出すしかなくなったのです。

彼の言う「覚悟」とは、現実の経営者が負うべき「責任」とは全く異なり、むしろ 「AIのリスクと限界を直視せず、安易な効率化に飛びつく」という、誤った「覚悟」 であると言わざるを得ません。

松尾氏の言葉の間違った解釈と清水氏の「悪手」

清水氏は松尾豊教授の

日経ビジネスのインタビューで日本のAI産業での戦い方を将棋AIに例えて**「弱いなりに最善手を指していると評価値が崩れず、そのうち何が起きるかというと相手がたまにミスをする」**、つまり最善手で耐えてミスを待てと語った。

この言葉を、以下のように語っている。

いかに日本人の意識がAIの起こす変化に鈍感かを表している。ある意味で絶望的な状況にある。

しかし、清水氏はビッグテックの指し手にある、 肝心の「悪手」に気が付いていません

  • 巨大LLM群は電力効率で生体脳に遥かに劣る設計であり、この点で「環境面の悪手」を放置したまま拡張を続けています。これは長期的な持続可能性を脅かす、重大な戦略的ミスです。

  • MicrosoftやOpenAIによる異常な投資速度と評価額が、逆に市場全体を「耐久戦」ではなく“消耗戦”の局面に変えています。資本とリソースを無尽蔵に投入できる体力勝負は、多くの企業にとって「勝ち」への道筋が見えにくい「悪手」となり得ます。

つまり「耐えれば勝てる」はおそらく合っている。ただし、それは“ 相手のミス(エネルギー・資本・制度の無理攻め)を見抜き、冷静に突く”ことでこそ初めて成立する戦い方です。松尾2氏が語る「耐える」は、ただ現状維持をするだけの「鈍感さ」とは全く異なります。

しかし、清水氏はそこから精神論に入ってしまう。敵を知らず、己すらも知らず。彼が見落としている「悪手」こそが、日本のAI戦略における「最善手」のヒントになり得るのに、その洞察を欠いたまま「覚悟」という抽象論に逃げているのです。

「耐えて勝てるのは、盤面が見えている者だけだ。清水氏の読みは、指し手というより観念論である。」