ダメだこりゃ、問答無用でぶった斬る――清水亮氏が語るAIとホワイトカラーの未来は、あまりにも現実離れした「空中楼閣」でした。

前編に続き、ビジネスインサイダーに掲載された清水亮氏の「AI研究者が指摘する、最新AIで『消滅する』5つのホワイトカラー仕事…もはや聖域はない」を拝読しましたが、正直な感想は、前回以上に「これはひどい」の一言に尽きます。 彼の主張は、AIがもたらす変化の本質を捉え損ねているだけでなく、現実の技術的・経済的・倫理的制約、さらには企業経営が直面する具体的な課題を完全に無視しています。今回は、彼が描く非現実的なAI像と、その危険な思考の歪みを、具体例を挙げながら徹底的に検証していきます。問答無用でぶった切るよ。 まず、彼は不都合な真実をはき違えています。「不都合な真実(An Inconvenient Truth)」は、元々はアル・ゴア元米副大統領が地球温暖化問題を訴えるために使用し、同名のドキュメンタリー映画によって世界的に広まった言葉です。その核心的な意味合いは、以下の通りです。 「耳障りで、目を背けたくなるような、しかし極めて重大で、科学的に裏付けされた現実」: 地球温暖化は、CO2排出が原因であるという科学的な証拠が多数ありながらも、経済的な利益やライフスタイルの変化を伴うため、多くの人々や企業、政府がその事実を直視し、対策を講じることを「不都合」に感じ、避けようとします。これが本来の「不都合な真実」の意味です。 「現状維持を困難にし、抜本的な変化を求めるもの」: その真実を認めれば、私たちには多大な努力や犠牲、そして既存のシステムや価値観の抜本的な見直しが求められます。まさに、 「快適な現状」を脅かす「厳然たる事実」 です。 清水氏が、Anthropic社のダリオ・アモデイCEOの「AIが一部の仕事を奪う可能性」という「警鐘」を「不都合な真実」として引き合いに出すのは、その意味を完全に履き違えています。彼は文脈を完全に無視しています。 清水氏の「欧米の月額課金型LLMは苦しい」という根拠なき主張 清水氏は「巨額を投じて学習させた月額課金型のLLMが中心の欧米陣営は、実は苦しい戦いを強いられているというのが筆者の見方だ」と述べていますが、この主張には、以下の点で客観的な裏付けが全くありません。 「苦しい戦い」の定義が不明確: 何をもって「苦しい戦い」としているのかが全く不明です。収益性なのか、ユーザー数の伸び悩みなのか、技術的な限界なのか、競争の激化なのか、具体的な指標が示されていません。 市場データとの乖離: 現在のところ、OpenAI(ChatGPT Plus)、Google(Gemini Advanced)、Anthropic(Claude Pro)など、主要な月額課金型LLMサービスは、ユーザー数を拡大し、企業向けの導入も進めている段階であり、一般に「苦しい戦い」と認識されているほどの明確な市場の減速は見られません。むしろ、新規参入や機能強化の競争は激化しており、これは市場が成長している証とも言えます。 巨額投資の背景の無視: LLMの開発には確かに巨額の投資が必要ですが、それは単にモデルを学習させるためだけでなく、研究開発、インフラ構築、人材獲得、そしてサービス提供と改善のための継続的な投資です。これらの投資は、先行者利益や技術的優位性を確立するための戦略的なものであり、必ずしも「苦しい」状態を示唆するものではありません。 月額課金型ビジネスモデルの課題と可能性の混同: 確かに月額課金型(サブスクリプションモデル)のAIサービスには、収益予測の難しさ、価値の定量化、競合との差別化といったビジネス上の課題は存在します。しかし、これはどのビジネスモデルにも存在するものであり、それをもって「苦しい戦いを強いられている」と断じるには、具体的なデータと深い分析が必要です。AIサービスにおいては、従量課金モデルと組み合わされたハイブリッド型も増えており、ビジネスモデル自体が進化している段階です。 「筆者の見方」という主観: 最も大きな問題は、彼がこれを「筆者の見方だ」と断り書きをしている点です。これは、客観的な事実やデータに基づかない、個人的な憶測や願望を述べているに過ぎないことを自ら認めているようなものです。しかも、それをAIの未来を語る重要な論点の一つとして提示しているのだから、その無責任さは際立っています。 清水氏が作る「引き金のないドミネイター」がもたらすもの 責任の所在が完全に消滅したAIシステム 「PSYCHO-PASS 3」のドミネイターに「引き金」があるのは、最終的な執行の責任を人間が負うためです。しかし、清水氏はAIが責任を取れないという現実を無視し、意思決定代行を声高に主張しています。彼に任せれば、次のようなシステムが生まれるでしょう。 財務の自動操作: 銀行口座をAIが自動管理し、資金を動かす。しかし、万一誤送金や不正な取引があった場合、AIは責任を取らず、人間も「AIがやったことだから」と責任を回避しようとする。結果、誰も責任を負わない「無責任な破産」が起きかねません。 人事評価の自動決定: AIが社員の評価や配置を自動で行う。不当な評価や差別があったとしても、その責任はAIには問えず、人間もその判断過程を完全に理解できないため、是正や謝罪が困難になる。社員のキャリアや人生が、AIのブラックボックスな判断で左右される。 戦略の自動実行: AIが最適な戦略を立案し、自動で市場に介入する。しかし、それが市場を混乱させたり、倫理的な問題を引き起こしたりした場合でも、最終的な責任の所在は曖昧になる。 人間社会の複雑性を無視した暴走 引き金がないドミネイターは、人間の感情、倫理、直感、そして悪意といった複雑な要素を考慮せず、ただプログラムされた通りに、あるいは学習データに基づいた統計的判断で「最適」を実行し続けるでしょう。 粉飾されたデータに基づいた「最適化」: 帳簿が粉飾されていてもAIはそれを真実として受け入れ、そのまま「最適な」財務分析や予算を生成し、企業を破綻へ導く可能性があります。 人間関係や共感を排除した業務遂行: 「1on0面談」のように、人間同士の信頼関係や感情的なつながりを育むプロセスを排除し、無機質な効率性だけを追求することで、組織のエンゲージメントや健全性を損なうでしょう。 持続可能性を顧みない無謀な拡大 清水氏の論調は、AIの物理的な制約や環境負荷を無視しています。引き金のないドミネイターが際限なく実行されれば、その先に待つのは「死の荒野」です。 電力消費の増大と環境破壊: 巨大なAIシステムを稼働させるための電力需要は天井知らずで、XAIの例のように無許可のガスタービンを増設するような、環境を破壊する手段さえ正当化されかねません。 リソースの枯渇と社会の疲弊: 終わりのないAI軍拡競争は、貴重な人的・物的リソースを食い潰し、社会全体の持続可能性を脅かします。 リクナビ事件が示す清水氏のAI論の危険性 「データによる個人の選別」と不利益の現実: 高木浩光氏が個人情報保護法の真意として説く「データによる個人の選別からの保護」は、このリクナビ事件でまさに具現化されました。「内定辞退率予測」は、学生が企業にとって「好ましくない」と判断される「選別」の材料となり、彼らの就職活動に不利益をもたらす可能性がありました。清水氏がAIにさせようとしている「人材の最適化」も、同様に個人の不利益に繋がる危険性を孕んでいます。 「利用目的の逸脱」と「倫理的欠陥」: リクナビは、学生が就職活動を支援するために登録した情報であり、その「利用目的」は学生の就職支援であったはずです。しかし、「内定辞退率予測」の販売は、学生の同意なく、その情報を企業の採用戦略に「関係ない」形で利用し、 学生に不利益をもたらすものでした 。これは、清水氏が軽視する「利用目的の関連性」や「倫理的な配慮」が、いかに重要であるかを示す典型です。 「同意なきデータ利用」の深刻さ: 7983人分のデータについて本人の同意を得ずに外部提供したことは、個人情報保護法に違反する恐れがあるとされ、リクルートキャリアも「学生の皆さまの心情に対する認識欠如こそが、根本的な課題である」と陳謝しました。清水氏のAI論には、このような 「データ提供者の同意」や「心情への配慮」 といった、データ活用における最も基本的な倫理的・法的要件が欠落しています。彼の「全部ぶっこむ」という発想は、このような同意なきデータ利用に繋がりかねません。 「最適化」の裏にある「人間の軽視」: リクルートキャリアは、企業側の「採用コスト削減」「内定出しの効率化」という「最適化」を目指したのでしょう。しかし、その結果は、学生の心情を無視し、彼らを「データ」としてのみ扱うという、人間性の軽視に繋がりました。清水氏が語るAIによる「最適化」も、その裏で、人間の感情や権利、尊厳をないがしろにする危険性を常に伴います。 「低確率でも致命的」な警鐘の真意 リスク管理の基本原則: リスク管理において、リスクは「発生確率」と「影響度」の積で評価されます。 リスク=発生確率×影響度 たとえ発生確率が低くても、影響度(結果の深刻さ)が極めて大きい場合、そのリスクは無視できないものとなります。アモデイCEOの警鐘は、まさにこの「影響度」の大きさに焦点を当てています。一部のホワイトカラー初級職が消滅するというのは、その当事者にとっては生活の基盤を失うという「致命的」な事態だからこそ、警鐘が必要なのです。 清水氏の「低確率」への無関心: 清水氏は、AIのハルシネーション、代理変数による差別、倫理的問題、責任の所在といった「核地雷」について、その発生確率が低かろうが高かろうが、結果として 「致命的」な影響(例えば、企業イメージの毀損、訴訟、人命に関わる過ち、社会の分断など)をもたらし得る ことを、全く考慮に入れていません。彼がリスクを語る場合、常にポジティブな側面や抽象的な効率性ばかりに目を向け、負の側面を矮小化しています。 ...

6月 24, 2025 · 1 分 · 144 文字 · Me

AI言説に潜むアテンション装置の正体

清水亮氏の『AI研究者が見た「不都合な」真実』を拝読しましたが、正直なところ、論理の飛躍があまりにも多く、全く読むに堪えないものでした。まるでWELQの健康に関する記事を読んだ後のような読後感です。 特に、最初に引っかかったのは以下のところです。 そのほかさまざまな技術的イノベーションもあり、もはやオープンウェイトの大規模言語モデルを一般企業や個人が手元で動かすことは、十分実用的なものになりつつある。 しかし、DeepSeek-R1のようなモデルを動かそうとすると、数百GB以上のVRAMが必要であり、コンシュマーレベルのGPUでは到底対応できません。ARM Macの環境だと、SharedなRAMのおかげで少し軽減しますが、それでも数百GBは無理があります。 まず、段階を追って清水氏の言説を検証します。 論理的に分解すると、以下の段階です。 GPT-4.5の問題 GPT-4.5をDeepSeek-R1で実現できる DeepSeek-R1を動的1bit量子化で実現できる 動的1bit量子化で適切なアウトプットが出る 動的1bit量子化モデルをMac Studioで動かせる Mac Studioが最適 まず、1.の問題は明確に存在し、計算コストの問題があります。問題は、2.以降です。DeepSeek-R1は大規模推論が可能ですが、GPT 4.5と同等な能力があるかどうかは実証されていないと考えます。3.はまあ、Unislothの発表を見る限り、実現はしてるとは思うのですが、4.はUnislothの発表を見る限りまだ、ベンチマークは十分ではありません。5.については容量的には動きそうレベルです。6.に関しては全く論外です。これは後述します。 ただし、米国型大型AIモデルを言うならば、コロッサスの問題を避けては通れないでしょう。南部環境法センター(Southern Environmental Law Center)が2025年4月9日に公開した調査によると、コロッサスでは 認可申請された15基を遥かに超える、35基のガスタービンエンジンを備えています。当然、この現実こそ、まさに不都合な真実です。 ちなみに、清水氏が記事で「不都合な真実」として引き合いに出している、OpenAIの競合であるAnthropic社のダリオ・アモデイCEOによる「今後5年間でAIが一部の仕事を奪う可能性、特に認知労働、つまりホワイトカラーの初級職に大きな影響が出て、5年で半分の初級職がなくなる」という警鐘は、本来の「不都合な真実」(環境問題)とは異なる文脈で用いられています。この点も、清水氏の言説がアテンションを引くための装置として機能している一例と言えるでしょう。 まず、Unislothの検証は以下の環境です。 The 1.58bit quantization should fit in 160GB of VRAM for fast inference (2x H100 80GB), with it attaining around 140 tokens per second for throughput and 14 tokens/s for single user inference. You don’t need VRAM (GPU) to run 1.58bit R1, just 20GB of RAM (CPU) will work however it will be very slow. For optimal performance, we recommend the sum of VRAM + RAM to be at least 80GB+. ...

6月 13, 2025 · 1 分 · 126 文字 · Me