Dolphin
開発者: Eric Hartford / Cognitive Computations
Eric Hartford氏が開発する検閲なしの指示調整済みモデルシリーズ。様々なベースモデル上でファインチューニングされ、高い従順性とコーディング能力を持つ。
家系図
モデル一覧 (11)
Dolphin 3.0
次世代汎用ローカルモデル。コーディング、数学、エージェント、関数呼び出しに最適化。DeepSeek-V3でデータ補完、RLHFlowの報酬モデルでフィルタリング。ChatML形式。
Dolphin 2.9 Llama 3
Llama 3ベースの検閲なしモデル。指示追従、会話、コーディングスキルに優れる。初期的なエージェント能力と関数呼び出しをサポート。256Kコンテキスト版も利用可能。
Dolphin 2.8 Mistral
Mistral-7B-v0.2ベースの検閲なしモデル。32Kコンテキスト対応。指示、会話、コーディングスキルに優れる。
Dolphin Mixtral
Mixtral MoEアーキテクチャベースの検閲なしモデル。コーディングに特に優れる。qLoRAによる効率的なファインチューニング。
Dolphin Qwen
Qwen/Qwen2ベースの検閲なしモデル。指示追従、会話、コーディングスキルに優れる。初期的なエージェント能力と関数呼び出しをサポート。
Dolphin 2.9.3 Mistral Nemo
Mistral Nemo(NVidia/Mistral AI共同開発)ベースの検閲なしモデル。128Kコンテキスト対応。指示追従、会話、コーディングスキルに優れる。
Dolphin Phi
Microsoft Phiシリーズベースの小型検閲なしモデル。軽量かつ高性能。Samanthaベースの共感データを含む。qLoRA + Axolotlで学習。
Dolphin 2.2 Yi
01.ai Yi-34Bベースの検閲なしモデル。16Kコンテキストでファインチューニング。会話と共感能力に優れる(Samantha + WizardLM DNA)。
TinyDolphin
TinyLlama(1.1B)ベースの超小型実験モデル。Dolphin 2.8データセットで学習。エッジデバイス向け。検閲なし。
MegaDolphin
Dolphin 2.2-70Bを自己インターリーブした超大規模マージモデル(120B)。Venus-120bにインスパイア。会話と共感能力に優れる(Samantha + WizardLM DNA)。Charles GoddardのMergeKitで約5分で作成。
DolphinCoder
StarCoder2ベースのコーディング特化モデル。大量のコーディングデータで学習。ソフトウェアエンジニアリングに最適化。qLoRA + Axolotlで学習。