<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>Market on Grayrecord Technow Blog</title>
    <link>https://technow.grayrecord.com/tags/market/</link>
    <description>Recent content in Market on Grayrecord Technow Blog</description>
    <image>
      <title>Grayrecord Technow Blog</title>
      <url>https://technow.grayrecord.com/images/Grayrecord-technow.png</url>
      <link>https://technow.grayrecord.com/images/Grayrecord-technow.png</link>
    </image>
    <generator>Hugo -- 0.159.0</generator>
    <language>ja</language>
    <lastBuildDate>Thu, 09 Apr 2026 00:06:02 +0900</lastBuildDate>
    <atom:link href="https://technow.grayrecord.com/tags/market/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>Meta&#39;s policy shift and the risks</title>
      <link>https://technow.grayrecord.com/post/metas-policy-shift-and-the-risks/</link>
      <pubDate>Thu, 09 Apr 2026 00:06:02 +0900</pubDate>
      <guid>https://technow.grayrecord.com/post/metas-policy-shift-and-the-risks/</guid>
      <description>&lt;p&gt;ソーシャルメディアの巨人、Meta Platforms（以下、Meta）は、AI 業界において長らく「オープンソースの盟主」として君臨してきた。2023 年に始まった Llama シリーズの公開は、クローズドな開発体制を敷く OpenAI や Google に対する強力なカウンターパワーとして、世界中の開発者コミュニティから熱狂的な支持を受けてきた。&lt;/p&gt;
&lt;p&gt;しかし、2025 年から 2026 年にかけて、同社の戦略は劇的な、そして痛みを伴う転換点を迎えている。この変革の象徴となっているのが、野心的な仕様を掲げながらも内部評価で苦戦を強いられた「Llama 4」シリーズと、その反省から極秘裏に開発が進められているプロプライエタリ（独占的）な次世代モデル「Avocado（アボカド）」である。&lt;/p&gt;
&lt;h2 id=&#34;llama-4moe-アーキテクチャへの挑戦と躓き&#34;&gt;Llama 4：MoE アーキテクチャへの挑戦と躓き&lt;/h2&gt;
&lt;h3 id=&#34;シリーズの構成と技術的野心&#34;&gt;シリーズの構成と技術的野心&lt;/h3&gt;
&lt;p&gt;2025 年 4 月 5 日、Meta は Llama 4 シリーズをリリースした。このシリーズは、従来の Dense なモデル構造から、計算効率を飛躍的に高める「Mixture of Experts (MoE)」アーキテクチャへと全面的に移行した初のフラッグシップモデルであった。Meta は、単一の巨大なニューラルネットワークですべての入力を処理するのではなく、特定のタスクに最適化された小規模な「専門家」ネットワークを多数配置し、入力トークンごとに最適な専門家を選択してルーティングする方式を採用した。この設計思想により、モデル全体のパラメータ数を巨大化させつつも、推論時の計算負荷を抑えることが可能となった。Llama 4 は主に、効率重視の「Scout」、汎用性の「Maverick」、そして AGI（汎用人工知能）を標榜する巨大モデル「Behemoth」の 3 モデルで構成されている。&lt;/p&gt;
&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th style=&#34;text-align: left&#34;&gt;モデル名&lt;/th&gt;
          &lt;th style=&#34;text-align: left&#34;&gt;総パラメータ数&lt;/th&gt;
          &lt;th style=&#34;text-align: left&#34;&gt;アクティブパラメータ数&lt;/th&gt;
          &lt;th style=&#34;text-align: left&#34;&gt;専門家構成&lt;/th&gt;
          &lt;th style=&#34;text-align: left&#34;&gt;主な特徴&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td style=&#34;text-align: left&#34;&gt;Llama 4 Scout&lt;/td&gt;
          &lt;td style=&#34;text-align: left&#34;&gt;109B&lt;/td&gt;
          &lt;td style=&#34;text-align: left&#34;&gt;17B&lt;/td&gt;
          &lt;td style=&#34;text-align: left&#34;&gt;16 experts&lt;/td&gt;
          &lt;td style=&#34;text-align: left&#34;&gt;単一 H100 GPU での動作、10M トークンの超長文コンテキスト&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td style=&#34;text-align: left&#34;&gt;Llama 4 Maverick&lt;/td&gt;
          &lt;td style=&#34;text-align: left&#34;&gt;400B&lt;/td&gt;
          &lt;td style=&#34;text-align: left&#34;&gt;17B&lt;/td&gt;
          &lt;td style=&#34;text-align: left&#34;&gt;128 experts&lt;/td&gt;
          &lt;td style=&#34;text-align: left&#34;&gt;コーディング・推論に特化、LMSYS Arena で上位を記録&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td style=&#34;text-align: left&#34;&gt;Llama 4 Behemoth&lt;/td&gt;
          &lt;td style=&#34;text-align: left&#34;&gt;約 2T&lt;/td&gt;
          &lt;td style=&#34;text-align: left&#34;&gt;288B&lt;/td&gt;
          &lt;td style=&#34;text-align: left&#34;&gt;16 experts&lt;/td&gt;
          &lt;td style=&#34;text-align: left&#34;&gt;リリース延期、GPT-4.5 超えを目指す教師モデル&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h3 id=&#34;内部評価と市場における性能の乖離&#34;&gt;内部評価と市場における「性能の乖離」&lt;/h3&gt;
&lt;p&gt;リリース直後、Meta の幹部たちは Llama 4 の性能を誇示した。VP の Ahmad Al Dahle は、Llama 4 Maverick が LMSYS Arena で 1417 の ELO レーティングを獲得し、GPT-4o や Gemini 2.0 Flash を凌駕したことを強調した。しかし、独立した開発者や研究者からの評価は、これとは対照的に厳しいものであった。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
