OLMo 3

ベースモデル
開発者
Allen Institute for AI (AI2)
ライセンス
Apache 2.0
リリース日
2025/11/20
コンテキスト長
65,536 トークン
対応言語
en
ベースモデル
olmo-2
officialopen-sourceresearchreasoninglong-context

完全オープンな「モデルフロー」を提供する最新世代。Base、Instruct、Thinkの3バリアントを持ち、推論能力が大幅に向上。65Kトークンのコンテキスト長をサポート。Dolma 3(6T)で学習。

技術仕様

アーキテクチャ

Decoder-only Transformer with RMSNorm + QK-norm

パラメータバリエーション

OLMo 3 7B(7B)

HuggingFace

ベースモデル。6Tトークンで学習。

VRAM4GB

GGUFファイルは登録されていません

OLMo 3 7B Instruct(7B)

HuggingFace

指示調整版。マルチターンチャット、ツール使用に最適化。

VRAM4GB

GGUFファイルは登録されていません

OLMo 3 7B Think(7B)

HuggingFace

推論特化版。数学・コード・推論タスク向け長い思考連鎖を出力。

VRAM4GB

GGUFファイルは登録されていません

OLMo 3 32B(32B)

HuggingFace

大型ベースモデル。約6Tトークンで学習。GQA採用。

VRAM18GB

GGUFファイルは登録されていません

OLMo 3.1 32B Think(32B)

HuggingFace

拡張RL版Think。さらなる推論能力向上。

VRAM18GB

GGUFファイルは登録されていません

OLMo 3.1 32B Instruct(32B)

HuggingFace

拡張RL版Instruct。

VRAM18GB

GGUFファイルは登録されていません

家系図

現在のモデル: OLMo 3