OLMo

開発者: Allen Institute for AI (AI2)

AI2が開発した完全オープンソースの大規模言語モデルファミリー。モデルの重み、学習データ(Dolma)、コード、評価方法、中間チェックポイントなどすべてが公開されている。OLMoE(MoE版)、Molmo(Vision-Language)も展開。

家系図

モデル一覧 (6)

OLMo 1

AI2初の完全オープンソース大規模言語モデル。学習データ(Dolma)、コード、チェックポイント、ログすべてを公開した画期的なリリース。OLMo 1.7/April 2024とJuly 2024版も含む。

6 バリエーション2024/2/1
ベースモデル

OLMo 2

最大6Tトークンで学習した新世代モデル。RMSNorm、Z-loss正則化、学習率アニーリングなど安定性向上技術を導入。Llama 3.1 8Bを上回る性能。Tülu 3パイプラインでポストトレーニング。

8 バリエーション2024/11/27
ベースモデル

OLMo 3

完全オープンな「モデルフロー」を提供する最新世代。Base、Instruct、Thinkの3バリアントを持ち、推論能力が大幅に向上。65Kトークンのコンテキスト長をサポート。Dolma 3(6T)で学習。

6 バリエーション2025/11/20
ベースモデル

OLMoE

Mixture-of-Experts (MoE) アーキテクチャを採用した効率的なモデル。6.9Bの総パラメータ数で1.3Bのみをアクティブに使用し、同等コストのモデルを大幅に上回る性能を実現。64エキスパート、Top-8ルーティング。

4 バリエーション2024/9/1
ベースモデル

Molmo

AI2初の完全オープンマルチモーダルモデル。オープンなPixMoデータセットで学習し、プロプライエタリモデルへの依存なしにGPT-4Vに匹敵する性能を達成。画像のポインティング機能が特徴。

4 バリエーション2024/9/25
ベースモデル

Molmo 2

ビデオ理解、マルチ画像推論、オブジェクトトラッキングに対応した次世代VLM。GPT-5やGemini 2.5 Proを上回る性能を一部タスクで達成。SigLIP 2ビジョンエンコーダ採用。最大128フレームのビデオ処理。

3 バリエーション2025/12/16
ベースモデル