Dolphin Mixtral

ファインチューニング
開発者
Eric Hartford / Cognitive Computations
ライセンス
Apache 2.0
リリース日
2023/12/15
コンテキスト長
32,768 トークン
対応言語
en, de, es, fr, it, pt
ベースモデル
mixtral-8x7b
uncensoredmoecodingmultilingual

Mixtral MoEアーキテクチャベースの検閲なしモデル。コーディングに特に優れる。qLoRAによる効率的なファインチューニング。

技術仕様

アーキテクチャ

Mixture of Experts (8x7B)

パラメータバリエーション

Dolphin 2.7 Mixtral 8x7B(46.7B)

HuggingFace

最新版。安定性と性能のバランス。

MoEアクティブパラメータ: 12.9B
VRAM26GB

GGUFファイルは登録されていません

Dolphin 2.6 Mixtral 8x7B(46.7B)

HuggingFace

DPO適用版。

MoEアクティブパラメータ: 12.9B
VRAM26GB

GGUFファイルは登録されていません

Dolphin 2.5 Mixtral 8x7B(46.7B)

HuggingFace

初期版。広く利用されている。

MoEアクティブパラメータ: 12.9B
VRAM26GB

GGUFファイルは登録されていません

Dolphin 2.9 Mixtral 8x22B(141B)

HuggingFace

大規模MoE版。最高性能。

MoEアクティブパラメータ: 39B
VRAM78GB

GGUFファイルは登録されていません

家系図

現在のモデル: Dolphin Mixtral