米国の小規模AIスタートアップArcee AIが、400億パラメータ(400B)を持つ大規模言語モデル「Trinity Large」をApache 2.0ライセンスでオープンソース公開しました。米国企業としては最大級のオープンソース基盤モデルとなり、中国勢が優勢なオープンソースLLM市場に新たな風を吹き込む存在として注目を集めています。
Trinity Largeはスパース型MoE(Mixture of Experts、混合エキスパート)アーキテクチャを採用しており、256のエキスパートのうち4つのみがトークンごとにアクティブになる設計です。これにより、総パラメータ数は400Bでありながら、実効的なアクティブパラメータ数は130億(13B)に抑えられ、推論速度は競合モデルの2〜3倍を実現しています。TechCrunchによると、開発には2048基のNVIDIA Blackwell B300 GPUを使用し、約6か月間、総コスト約2000万ドル(約30億円)で完成させたとのことです。ベンチマークテストでは、コーディングや数学の分野でMetaのLlamaを上回る結果を示しています。
Arcee AIはTrinity Large(400B)、Trinity Mini(26B)、Trinity Nano(6B)の3サイズで展開しています。Large版には3つのバリアントが用意されており、軽くポストトレーニングされた「Preview」版、純粋な基盤モデルの「Base」版、そして一切のインストラクトデータを含まない「TrueBase」版があり、企業が独自にカスタマイズするための中立的な出発点を提供します。OpenRouterでは2026年2月末までの期間限定で、Trinity-Large-Previewを無料で利用できるプレビューキャンペーンも実施されています。
X上では「2048台のNVIDIA B300 GPUで訓練された、米国企業による最大級のオープンソースMoEモデル」として話題を呼んでいます。Hacker Newsでは「Apache 2.0ライセンスによる『永続的にオープン』な姿勢がベンダーロックイン回避の観点から歓迎されている」との声が上がっています。中国勢のDeepSeekやQwenが注目を集める中、米国発のオープンソースモデルとして競争力を示した点が高く評価されています。
オープンソースLLM市場では、DeepSeek-V3やQwen3など中国勢の存在感が増していますが、Arcee AIの参入により米国からの選択肢が増えることになります。同社は今後6週間以内に競争力のある価格でホスト型APIサービスを提供する予定であり、無料のモデルウェイトに加えてAPIを提供することで、オープンソースの理念と商業的な持続可能性の両立を目指しています。