ChatGLM2-6B
指示チューニング開発者Zhipu AI / Tsinghua UniversityライセンスApache 2.0 (code) / Model License (weights)リリース日2023/6/25コンテキスト長32,768 トークントレーニングトークン1.4T対応言語zh, en officialbilingualdialogue
ChatGLM-6Bの第2世代。FlashAttentionによる長文対応(32Kトークン)、大幅な性能向上を実現。1.4兆トークンで学習。MMLUで+23%、GSM8Kで+571%の性能向上。
ベンチマーク
ソース: ChatGLM2 Technical Report
技術仕様
アーキテクチャ
GLM Transformer with FlashAttention
プロンプトテンプレート
フォーマット: chatglm2
ユーザープロンプト:[Round {n}]
问:{prompt}
パラメータバリエーション
標準版。8Kトークンで学習、推論時32Kまで対応。
GGUFファイルは登録されていません
INT4量子化版。6GB VRAMで推論可能。
GGUFファイルは登録されていません
32Kコンテキスト対応版。長文処理に最適化。
GGUFファイルは登録されていません
家系図
現在のモデル: ChatGLM2-6B
Press enter or space to select a node. You can then use the arrow keys to move the node around. Press delete to remove it and escape to cancel.
Press enter or space to select an edge. You can then press delete to remove it or escape to cancel.