Dolphin

開発者: Eric Hartford / Cognitive Computations

Eric Hartford氏が開発する検閲なしの指示調整済みモデルシリーズ。様々なベースモデル上でファインチューニングされ、高い従順性とコーディング能力を持つ。

家系図

モデル一覧 (11)

Dolphin 3.0

次世代汎用ローカルモデル。コーディング、数学、エージェント、関数呼び出しに最適化。DeepSeek-V3でデータ補完、RLHFlowの報酬モデルでフィルタリング。ChatML形式。

8 バリエーション2025/1/5
ファインチューニング

Dolphin 2.9 Llama 3

Llama 3ベースの検閲なしモデル。指示追従、会話、コーディングスキルに優れる。初期的なエージェント能力と関数呼び出しをサポート。256Kコンテキスト版も利用可能。

4 バリエーション2024/4/20
ファインチューニング

Dolphin 2.8 Mistral

Mistral-7B-v0.2ベースの検閲なしモデル。32Kコンテキスト対応。指示、会話、コーディングスキルに優れる。

3 バリエーション2024/3/25
ファインチューニング

Dolphin Mixtral

Mixtral MoEアーキテクチャベースの検閲なしモデル。コーディングに特に優れる。qLoRAによる効率的なファインチューニング。

4 バリエーション2023/12/15
ファインチューニング

Dolphin Qwen

Qwen/Qwen2ベースの検閲なしモデル。指示追従、会話、コーディングスキルに優れる。初期的なエージェント能力と関数呼び出しをサポート。

3 バリエーション2024/6/1
ファインチューニング

Dolphin 2.9.3 Mistral Nemo

Mistral Nemo(NVidia/Mistral AI共同開発)ベースの検閲なしモデル。128Kコンテキスト対応。指示追従、会話、コーディングスキルに優れる。

1 バリエーション2024/8/1
ファインチューニング

Dolphin Phi

Microsoft Phiシリーズベースの小型検閲なしモデル。軽量かつ高性能。Samanthaベースの共感データを含む。qLoRA + Axolotlで学習。

3 バリエーション2024/1/15
ファインチューニング

Dolphin 2.2 Yi

01.ai Yi-34Bベースの検閲なしモデル。16Kコンテキストでファインチューニング。会話と共感能力に優れる(Samantha + WizardLM DNA)。

1 バリエーション2023/12/1
ファインチューニング

TinyDolphin

TinyLlama(1.1B)ベースの超小型実験モデル。Dolphin 2.8データセットで学習。エッジデバイス向け。検閲なし。

3 バリエーション2024/1/20
ファインチューニング

MegaDolphin

Dolphin 2.2-70Bを自己インターリーブした超大規模マージモデル(120B)。Venus-120bにインスパイア。会話と共感能力に優れる(Samantha + WizardLM DNA)。Charles GoddardのMergeKitで約5分で作成。

1 バリエーション2024/1/10
マージモデル

DolphinCoder

StarCoder2ベースのコーディング特化モデル。大量のコーディングデータで学習。ソフトウェアエンジニアリングに最適化。qLoRA + Axolotlで学習。

2 バリエーション2024/3/1
ファインチューニング