DeepSeek-V3.2

ベースモデル
開発者
DeepSeek AI
ライセンス
MIT
リリース日
2025/12/1
コンテキスト長
128,000 トークン
対応言語
en, zh
知識カットオフ
2025-Q4
ベースモデル
deepseek-v3-1
officialtext-generationmoesparse-attentioncompetitionopen-source

DeepSeek AIのV3.2モデル。2025年12月1日公開。DeepSeek Sparse Attention(DSA)を導入し、より効率的なアテンション機構を実現。GPT-5/Gemini-3.0-Pro相当の性能。671Bパラメータ(37B活性化)。MITライセンス。

技術仕様

アーキテクチャ

MoE with DeepSeek Sparse Attention (DSA), Efficient long-context attention

パラメータバリエーション

DeepSeek-V3.2(671B)

HuggingFace

DeepSeek Sparse Attention搭載。GPT-5相当の性能。

MoEアクティブパラメータ: 37B
VRAM369GB

GGUFファイルは登録されていません

家系図

現在のモデル: DeepSeek-V3.2