GLM-4.7

ベースモデル
開発者
Zhipu AI / Tsinghua University
ライセンス
MIT License
リリース日
2025/12/22
コンテキスト長
202,752 トークン
対応言語
zh, en
officialmoeagentreasoningcodingflagship

最新フラッグシップモデル。オープンソースモデルで初めてClaude Sonnet 4.5に匹敵。コーディング・エージェント能力でオープンソース最高峰。3種の思考モード(Interleaved/Preserved/Turn-level Thinking)搭載。Cerebras上で1500+ tokens/sの高速推論。SWE-bench Verifiedで73.8%、LiveCodeBenchで84.9達成。

ベンチマーク

HumanEval
84.9
GPQA
85.7
SWE-bench Verified
73.8
AIME 2025
95.7
MMLU-Pro
84.3
tau2-Bench
87.4
BrowseComp
52

ソース: GLM-4.7 Release Notes (2025-12-22)

技術仕様

アーキテクチャ

Mixture of Experts with Multi-Headed Latent Attention (MLA)

パラメータバリエーション

GLM-4.7(358B)

HuggingFace

フラッグシップMoEモデル。358B総パラメータ/32Bアクティブ/160エキスパート。200Kコンテキスト入力、最大128K出力。3種の思考モード搭載。

MoEアクティブパラメータ: 32B / 160 エキスパート数
VRAM197GB

GGUFファイルは登録されていません

GLM-4.7-Flash(30B)

HuggingFace

軽量MoEモデル(30B総パラメータ/3Bアクティブ)。消費者向けGPU(RTX 3090等)やApple Siliconで動作可能。2026年1月20日公開。SWE-bench Verifiedで59.2%達成。

MoEアクティブパラメータ: 3B / 64 エキスパート数
VRAM17GB

GGUFファイルは登録されていません

家系図

現在のモデル: GLM-4.7