OLMo 1

ベースモデル
開発者
Allen Institute for AI (AI2)
ライセンス
Apache 2.0
リリース日
2024/2/1
コンテキスト長
2,048 トークン
対応言語
en
officialopen-sourceresearch

AI2初の完全オープンソース大規模言語モデル。学習データ(Dolma)、コード、チェックポイント、ログすべてを公開した画期的なリリース。OLMo 1.7/April 2024とJuly 2024版も含む。

技術仕様

アーキテクチャ

Decoder-only Transformer

パラメータバリエーション

OLMo 1B(1B)

HuggingFace

軽量版。2Tトークンで学習。

VRAM1GB

GGUFファイルは登録されていません

OLMo 7B(7B)

HuggingFace

初代フラッグシップ。2.5Tトークンで学習。

VRAM4GB

GGUFファイルは登録されていません

OLMo 7B Instruct(7B)

HuggingFace

指示調整版。

VRAM4GB

GGUFファイルは登録されていません

OLMo 7B 0424(7B)

HuggingFace

April 2024版。MMLU 28→52に改善。4Kコンテキスト。

VRAM4GB

GGUFファイルは登録されていません

OLMo 7B 0724(7B)

HuggingFace

July 2024版。2段階カリキュラム適用。

VRAM4GB

GGUFファイルは登録されていません

OLMo 7B 0724 Instruct(7B)

HuggingFace

July 2024版指示調整モデル。

VRAM4GB

GGUFファイルは登録されていません

家系図

現在のモデル: OLMo 1