GLM-4.7
ベースモデルofficialmoeagentreasoningcodingflagship
最新フラッグシップモデル。オープンソースモデルで初めてClaude Sonnet 4.5に匹敵。コーディング・エージェント能力でオープンソース最高峰。3種の思考モード(Interleaved/Preserved/Turn-level Thinking)搭載。Cerebras上で1500+ tokens/sの高速推論。SWE-bench Verifiedで73.8%、LiveCodeBenchで84.9達成。
ベンチマーク
HumanEval
84.9
GPQA
85.7
SWE-bench Verified
73.8
AIME 2025
95.7
MMLU-Pro
84.3
tau2-Bench
87.4
BrowseComp
52
ソース: GLM-4.7 Release Notes (2025-12-22)
技術仕様
アーキテクチャ
Mixture of Experts with Multi-Headed Latent Attention (MLA)
パラメータバリエーション
GLM-4.7(358B)
HuggingFaceフラッグシップMoEモデル。358B総パラメータ/32Bアクティブ/160エキスパート。200Kコンテキスト入力、最大128K出力。3種の思考モード搭載。
MoEアクティブパラメータ: 32B / 160 エキスパート数
VRAM197GB
GGUFファイルは登録されていません
GLM-4.7-Flash(30B)
HuggingFace軽量MoEモデル(30B総パラメータ/3Bアクティブ)。消費者向けGPU(RTX 3090等)やApple Siliconで動作可能。2026年1月20日公開。SWE-bench Verifiedで59.2%達成。
MoEアクティブパラメータ: 3B / 64 エキスパート数
VRAM17GB
GGUFファイルは登録されていません
関連モデル
家系図
現在のモデル: GLM-4.7