Edit model card

RWKV-x060-7B-Rosebleu Model Card

モデル概要

  • モデル名: RWKV-x060-7B-Rosebleu
  • アーキテクチャ: RWKV x060 "Finch"
  • ベースモデル: RWKV x060-7B JPN
  • モデル構造: 32 Layer, 4096 Dimension
  • パラメータ数: 7.6B (76億)
  • ファインチューニング手法: LoRA(r=16), Emb frozen, Head LoRA(r=16) NF4量子化
  • LoRAマージ手法:非量子化モデルに対し、LoRAをマージ
  • 学習コンテキストサイズ: 可変ウインドウ最大131k(平均40k)

特徴

  • RWKV-LM-RLHF Infctx モードによる拡大学習コンテキスト
  • SFTLossとKLLossのハイブリッド学習による過学習抑制を目指しています。
  • キャラクターごとの会話履歴を考慮した学習
  • ロールプレイチャット学習を重点的に行ったモデルになります。

データセット

  • 使用データセット: open_contents_datasetsの(c)Rosebleu様のデータセット
  • データ処理: キャラクターごとの会話並び替えと会話履歴ごとの1Pair生成
  • Topk100のLogitsデータセットを作成(70GBほど)
  • 処理後のトータルデータセット数300000Pair

使用方法

  • システムプロンプトにキャラクター情報を入力することでキャラクターになりきり可能?
  • システムプロンプトなしの場合は素モデルに近い挙動をします
  • 推奨推論パラメータはTemperature=1.0 top-p=0.5です

技術的詳細

  • 自己蒸留LogitsをLossに加えることでSFTLossとKLLossのバランスを調整
  • ハイパーパラメータによるSFTデータセットの学習度と元のモデル維持度のトレードオフ制御
  • LR 2e-5 to 1e-6, top-k=100 temperature=2.0 alpha=0.85
  • Train Epoch 2

制限事項と注意点

  • 実験的なモデルであり、性能や挙動が安定しない可能性があります。
  • キャラクターのなりきり精度は入力されるシステムプロンプトに依存します。

ライセンスと謝辞

Downloads last month

-

Downloads are not tracked for this model. How to track
Inference API
Unable to determine this model's library. Check the docs .