Dolphin Mixtral
ファインチューニング開発者Eric Hartford / Cognitive ComputationsライセンスApache 2.0リリース日2023/12/15コンテキスト長32,768 トークン対応言語en, de, es, fr, it, ptベースモデルmixtral-8x7b uncensoredmoecodingmultilingual
Mixtral MoEアーキテクチャベースの検閲なしモデル。コーディングに特に優れる。qLoRAによる効率的なファインチューニング。
技術仕様
アーキテクチャ
Mixture of Experts (8x7B)
パラメータバリエーション
最新版。安定性と性能のバランス。
MoEアクティブパラメータ: 12.9B
VRAM26GB
GGUFファイルは登録されていません
DPO適用版。
MoEアクティブパラメータ: 12.9B
VRAM26GB
GGUFファイルは登録されていません
初期版。広く利用されている。
MoEアクティブパラメータ: 12.9B
VRAM26GB
GGUFファイルは登録されていません
大規模MoE版。最高性能。
MoEアクティブパラメータ: 39B
VRAM78GB
GGUFファイルは登録されていません
家系図
現在のモデル: Dolphin Mixtral
Press enter or space to select a node. You can then use the arrow keys to move the node around. Press delete to remove it and escape to cancel.
Press enter or space to select an edge. You can then press delete to remove it or escape to cancel.