ソーシャルメディアの巨人、Meta Platforms(以下、Meta)は、AI 業界において長らく「オープンソースの盟主」として君臨してきた。2023 年に始まった Llama シリーズの公開は、クローズドな開発体制を敷く OpenAI や Google に対する強力なカウンターパワーとして、世界中の開発者コミュニティから熱狂的な支持を受けてきた。
しかし、2025 年から 2026 年にかけて、同社の戦略は劇的な、そして痛みを伴う転換点を迎えている。この変革の象徴となっているのが、野心的な仕様を掲げながらも内部評価で苦戦を強いられた「Llama 4」シリーズと、その反省から極秘裏に開発が進められているプロプライエタリ(独占的)な次世代モデル「Avocado(アボカド)」である。
Llama 4:MoE アーキテクチャへの挑戦と躓き
シリーズの構成と技術的野心
2025 年 4 月 5 日、Meta は Llama 4 シリーズをリリースした。このシリーズは、従来の Dense なモデル構造から、計算効率を飛躍的に高める「Mixture of Experts (MoE)」アーキテクチャへと全面的に移行した初のフラッグシップモデルであった。Meta は、単一の巨大なニューラルネットワークですべての入力を処理するのではなく、特定のタスクに最適化された小規模な「専門家」ネットワークを多数配置し、入力トークンごとに最適な専門家を選択してルーティングする方式を採用した。この設計思想により、モデル全体のパラメータ数を巨大化させつつも、推論時の計算負荷を抑えることが可能となった。Llama 4 は主に、効率重視の「Scout」、汎用性の「Maverick」、そして AGI(汎用人工知能)を標榜する巨大モデル「Behemoth」の 3 モデルで構成されている。
| モデル名 | 総パラメータ数 | アクティブパラメータ数 | 専門家構成 | 主な特徴 |
|---|---|---|---|---|
| Llama 4 Scout | 109B | 17B | 16 experts | 単一 H100 GPU での動作、10M トークンの超長文コンテキスト |
| Llama 4 Maverick | 400B | 17B | 128 experts | コーディング・推論に特化、LMSYS Arena で上位を記録 |
| Llama 4 Behemoth | 約 2T | 288B | 16 experts | リリース延期、GPT-4.5 超えを目指す教師モデル |
内部評価と市場における「性能の乖離」
リリース直後、Meta の幹部たちは Llama 4 の性能を誇示した。VP の Ahmad Al Dahle は、Llama 4 Maverick が LMSYS Arena で 1417 の ELO レーティングを獲得し、GPT-4o や Gemini 2.0 Flash を凌駕したことを強調した。しかし、独立した開発者や研究者からの評価は、これとは対照的に厳しいものであった。
戦略的挫折:なぜ Llama 4 は「期待外れ」に終わったのか
Llama 4 が直面した技術的課題の根本には、MoE アーキテクチャの未熟さがあった。専門家ネットワークが 17B という比較的小規模なサイズに設定されていたため、個々の専門家の表現能力が不足し、複雑な推論を維持できなかった可能性が指摘されている。また、トレーニングデータの質を巡る問題も浮上した。Scale AI を通じて供給された高品質な注釈付きデータが十分に活用される前に、リリースの締め切りに追われる形でトレーニングが強行されたという内部証言もある。
組織内の混乱とリーダーシップの交代
Llama 4 の性能が芳しくないことが明らかになるにつれ、Meta の AI 部門では深刻な動揺が広がった。AI 研究の責任者であった Joelle Pineau が解任されたという噂や、AI 研究の象徴的アイコンであったヤン・ルカン(Yann LeCun)の権限縮小とそれに続く辞任報道は、組織がいかに機能不全に陥っていたかを物語っている。
マーク・ザッカーバーグ CEO は、伝統的なアカデミック気質の強い FAIR(Fundamental AI Research)チームのスピード感に苛立ちを募らせていた。彼は、科学的な厳密さよりも製品への実装速度を重視する体制への移行を決断し、これが後の「Meta Superintelligence Labs」の設立へと繋がっていく。Llama 4 の失敗は、Meta における「研究主導型 AI」の終焉を告げる号砲となった。
オープンソース戦略の敗北宣言
ザッカーバーグは「国家安全保障上の懸念」および「投資対効果の低下」を理由に、トップエンドのフロンティアモデルについてはオープンソース化を見送るという歴史的な方針転換を下した。こうして生まれたのが、完全にクローズドな開発体制で進められる次世代モデル、コードネーム「Avocado(アボカド)」である。
Avocado の開発遅延と「Gemini ライセンス」の屈辱
Gemini 3 との絶望的な距離感
しかし、莫大な資金と人材を投入したにもかかわらず、Avocado の道のりは険しい。2025 年末に予定されていた内部納品は、性能試験の結果が目標に届かなかったため、2026 年第 1 四半期、さらには 2026 年 5 月以降へと繰り返し延期されている。内部ベンチマークによれば、Avocado は前世代の Llama モデルや Google が 2025 年 3 月にリリースした Gemini 2.5 は上回ったものの、2025 年 11 月に登場した Gemini 3.0 には依然として明確な性能差をつけられている。推論、コーディング、文章作成のすべての主要項目で競合の後塵を拝している事実に、ザッカーバーグは焦燥感を隠していない。
インフラへの天文学的投資:1,350 億ドルの賭け
プロメテウスとハイペリオン:AI のための「要塞」
ソフトウェア面での苦戦とは裏腹に、物理インフラの拡充において Meta は他社を圧倒する規模を誇っている。2026 年度の資本支出(Capex)は 1,150 億ドルから 1,350 億ドルという、単一企業の投資額としては空前絶後の規模に達する見通しである。この投資の大部分は、Avocado の学習と推論を支えるための超巨大データセンター群に充てられるとされている。
| プロジェクト名 | 所在地 | 特徴 | 投資・規模 |
|---|---|---|---|
| Prometheus | オハイオ州 | 1GW の電力(原発 1 基分)、独自の島嶼モード動作 | 約 30 億ドルの建設ローン |
| Hyperion | ルイジアナ州 | Avocado 専用の学習・推論ハブ | 27 億ドルの共同事業 |
| LillyPod | 不明 | 1,000 基以上の Blackwell Ultra GPU を搭載 | 科学計算・高度推論用 |
巨大すぎるリスク
しかし、物理インフラと巨大な CapEx が結果をもたらすかといえば、それは確実ではない。現在の AI 業界、特に Meta などのビッグテックが行っている空前絶後の規模の資本支出(CapEx)には、企業の存亡を揺るがしかねない重大なリスクが潜んでいる。
- 投資回収の不確実性と深刻な財務圧迫
最大の懸念は、天文学的な投資が収益に直結していないことである。Meta は次世代モデル開発のために 2026 年に 1,150 億〜1,350 億ドルという巨額の設備投資を計画し、独自の巨大データセンター「Prometheus」の建設には約 30 億ドルの建設ローンを組み、別の施設でも 270 億ドル規模の共同事業を行っている。しかし、これほどの投資を行っても広告効率の劇的な改善や新規収益源の創出といった「収益化の条件」を満たせていない。その結果、市場からは「AI バブルの最大の被害者になるのではないか」と危惧され、一時 788 ドルを記録した Meta の株価は 500 ドル台まで調整(下落)を余儀なくされている。
- 「資本力=性能向上」とはならない構造的限界
巨額の CapEx を投じて計算資源を積み上げても、必ずしも競合のフロンティアモデルに勝てるわけではない。AI モデルの性能は、データ品質や学習手法の最適化といった細かな積み重ねで決まる。実際に Meta は AI に 700 億ドル以上を投じているにもかかわらず、最新の「Avocado」モデルでも Gemini 3.0 などのトップ集団に推論やコーディング能力で追いつけておらず、「資本力は必要条件であっても十分条件ではない」という AI 開発の構造的な難しさを露呈している。
- 遅延がもたらす「競争力の完全喪失」リスク
AI 基盤モデルの競争は数ヶ月単位で世代が入れ替わる異常なスピードで進んでいる。巨額のインフラを構築してモデルを作ろうとしても、リリースが数ヶ月遅れるだけで 1 世代分の技術差がつき、出荷時点ですでに時代遅れになってしまう。莫大な投資をして「追いつくだけのモデル」しか出せなければ、最終的に競合(例えば Google の Gemini)の技術をライセンス導入せざるを得なくなるという、AI 企業としてのアイデンティティに関わる経営的敗北のリスクを抱えることになる。
- 技術パラダイムの転換によるビジネスモデルの崩壊
市場では、Zhipu AI の「GLM-5.1」のような超低価格 API や、PrismML の「Bonsai 8B」、Google の「Gemma 4」のようにスマートフォンやエッジデバイス上でサクサク動く超高効率なモデルが台頭している。ハイパースケーラー側は「エッジデバイスが増えれば、背後でそれらを支えるクラウドインフラの需要(学習や複雑な推論など)も爆発的に増える」という前提で総額 7,000 億ドル超の CapEx を正当化しているが、もしこの前提が崩れたり、エッジ側での処理能力が想定以上に向上したりすれば、超巨大なクローズドモデルに依存する莫大なインフラ投資は過剰投資となり、ビジネスモデルが根底から崩壊するリスクがある。
- 膨大な電力消費による環境および社会的リスク
巨大なデータセンターを稼働させるための「電力の確保」も深刻なリスクである。Meta は原発 1 基分(1GW)の電力を消費するデータセンターを稼働させようとしている。また、競合である xAI は、テネシー州メンフィスにある巨大データセンター「Colossus」の稼働を急ぐあまり、緊急用の移動式天然ガスタービンを保健当局の許可なく強引に稼働させている。このタービンはエネルギー効率が低いだけでなく、一酸化窒素やホルムアルデヒドといった発がん性のある汚染物質を大量に排出するため、環境保護団体や地元当局からの非難や法的措置のリスクに直面している。このように、力技の CapEx は地球環境への負荷や社会的・法的な摩擦を直接的に引き起こす。
結論
巨大な CapEx は、トップ集団の競争に参加するための「入場料」にはなるが、それが勝利や利益を保証するものではない。むしろ、少しでも技術の方向性を読み違えたり開発が遅れたりすれば、その莫大な投資と負債がそのまま企業の首を絞めるという、極めてハイリスクなギャンブルになっているのが現在の状況である。
