← 2026-03-17
Open Source Community 2026-03-17 Source →

Arcee AI、400Bパラメータのオープンソースモデル「Trinity」を発表 — Llama 4 Maverick対抗、約2000万ドルで開発

小規模AIスタートアップのArcee AIが、4000億パラメータのオープンソース大規模言語モデル「Trinity」をApacheライセンスで公開しました。米国ベースの組織がトレーニング・公開したオープンソース基盤モデルとしては最大級の規模となります。

TechCrunchによると、Trinityはスパース型Mixture-of-Experts(MoE)アーキテクチャを採用し、トークンあたり130億のアクティブパラメータで動作します。256個のエキスパートのうち4つがトークンごとに活性化される設計です。ベンチマークテストでは、MetaのLlama 4 Maverick(400B)やZ.aiのGLM-4.5と同等の性能を示しており、コーディング、数学、常識、知識、推論のテストでLlamaと同等かやや上回る結果も出ています。

注目すべきは開発コストです。Arcee AIは総調達額約5000万ドルのうち、約2000万ドルでTrinityを開発。NVIDIA Blackwell B300 GPU 2,048基を使用し、6ヶ月間でトレーニングを完了しました。Trinity-Large-PreviewはOpenRouterで2026年2月末まで無料で利用可能です。

Redditのr/LocalLLaMAでは「Metaに頼らないオープンソースの選択肢」として注目を集めています。Hacker Newsでは「小規模チームでも大規模モデル開発が可能になった証拠」との評価がなされています。現時点ではテキストのみ対応で真のSOTA(最先端)競合とは言えませんが、ビジョンモデルは開発中、音声認識機能もロードマップに含まれているとのことです。

関連リンク