Molmo

ベースモデル
開発者
Allen Institute for AI (AI2)
ライセンス
Apache 2.0
リリース日
2024/9/25
コンテキスト長
4,096 トークン
対応言語
en
officialopen-sourcemultimodalvision

AI2初の完全オープンマルチモーダルモデル。オープンなPixMoデータセットで学習し、プロプライエタリモデルへの依存なしにGPT-4Vに匹敵する性能を達成。画像のポインティング機能が特徴。

技術仕様

アーキテクチャ

Vision-Language Model (OpenAI CLIP ViT-L/14-336px + LLM)

パラメータバリエーション

MolmoE 1B(7B)

HuggingFace

効率重視版。OLMoE-1B-7Bベース。GPT-4V相当の性能。

MoEアクティブパラメータ: 1B
VRAM4GB
ベースモデルolmoe

GGUFファイルは登録されていません

Molmo 7B-O(7B)

HuggingFace

完全オープン版。OLMo-7B-1024ベース。

GGUFファイルは登録されていません

Molmo 7B-D(7B)

HuggingFace

高性能版。Qwen2-7Bベース。

GGUFファイルは登録されていません

Molmo 72B(72B)

HuggingFace

最高性能版。Qwen2-72Bベース。

GGUFファイルは登録されていません

家系図

現在のモデル: Molmo