OLMo 2

ベースモデル
開発者
Allen Institute for AI (AI2)
ライセンス
Apache 2.0
リリース日
2024/11/27
コンテキスト長
4,096 トークン
対応言語
en
ベースモデル
olmo-1
officialopen-sourceresearch

最大6Tトークンで学習した新世代モデル。RMSNorm、Z-loss正則化、学習率アニーリングなど安定性向上技術を導入。Llama 3.1 8Bを上回る性能。Tülu 3パイプラインでポストトレーニング。

技術仕様

アーキテクチャ

Decoder-only Transformer with RMSNorm

パラメータバリエーション

OLMo 2 1B(1B)

HuggingFace

軽量版。4Tトークンで学習。

VRAM1GB

GGUFファイルは登録されていません

OLMo 2 1B Instruct(1B)

HuggingFace

軽量版指示調整モデル。

VRAM1GB

GGUFファイルは登録されていません

OLMo 2 7B(7B)

HuggingFace

主力モデル。MMLU 63.7%。4Tトークンで学習。

VRAM4GB

GGUFファイルは登録されていません

OLMo 2 7B Instruct(7B)

HuggingFace

指示調整版。SFT + DPO + RLVR。

VRAM4GB

GGUFファイルは登録されていません

OLMo 2 13B(13B)

HuggingFace

大型版。5Tトークンで学習。Qwen 2.5 7B超え。

VRAM7.5GB

GGUFファイルは登録されていません

OLMo 2 13B Instruct(13B)

HuggingFace

大型版指示調整モデル。

VRAM7.5GB

GGUFファイルは登録されていません

OLMo 2 32B(32B)

HuggingFace

最大版。6Tトークンで学習。

VRAM18GB

GGUFファイルは登録されていません

OLMo 2 32B Instruct(32B)

HuggingFace

最大版指示調整モデル。

VRAM18GB

GGUFファイルは登録されていません

家系図

現在のモデル: OLMo 2