← 2026-03-02
Open Source Community 2026-03-02 Source →

米Arcee AI、4000億パラメータの大規模オープンソースモデル「Trinity」をApache 2.0で公開、6か月・約30億円で開発

米国のスタートアップArcee AIが、4000億パラメータを持つ大規模言語モデル「Trinity」をApache 2.0ライセンスでオープンソース公開しました。米国企業としては最大級のオープンソース基盤モデルとなり、中国勢が優勢なオープンソースLLM市場に新たな風を吹き込んでいます。

TechCrunchによると、Trinity Largeは4000億パラメータのスパースMoE(Mixture of Experts)アーキテクチャを採用し、256のエキスパートのうち4つのみがトークンごとにアクティブになる設計です。これにより、トークンあたりの実効パラメータ数は130億に抑えられ、推論速度は競合の2〜3倍を実現しています。開発には2048基のNVIDIA Blackwell B300 GPUを使用し、約6か月間、総コスト約2000万ドル(約30億円)で完成させたとのことです。

Arcee AIはTrinity Large(4000億)、Trinity Mini(260億)、Trinity Nano(60億)の3サイズで展開し、さらにLarge版には3つのバリアントを用意しています。軽くポストトレーニングされたPreview版、純粋な基盤モデルのBase版、そして一切のインストラクトデータを含まないTrueBase版があり、企業が独自にカスタマイズするための中立的な出発点を提供します。

X上では「中国勢に押されるオープンソースLLM市場で、米国からの新規参入は歓迎」との声が上がっています。Hacker NewsではApache 2.0ライセンスによる「永続的にオープン」な姿勢がベンダーロックイン回避の観点から高く評価されています。ベンチマークテストではMetaのLlama 4 Maverick 400Bや、中国・清華大学のZ.ai GLM-4.5に匹敵する性能を示しているとのことです。

Arcee AIは今後6週間以内に、競争力のある価格でホスト型APIサービスを提供する予定です。無料のモデルウェイトに加えてAPIを提供することで、オープンソースの理念と商業的な持続可能性の両立を目指しています。

関連リンク