OpenMOSE commited on
Commit
fb4f291
·
verified ·
1 Parent(s): d36b306

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +61 -3
README.md CHANGED
@@ -1,3 +1,61 @@
1
- ---
2
- license: apache-2.0
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ ---
4
+ # RWKV-x060-14B-CoT
5
+
6
+ ## モデル概要
7
+
8
+ このモデルは、RWKV-x060-14B-JPNをベースに、Chain-of-Thought推論能力の強化を目指してファインチューニングを行ったモデルです。
9
+
10
+ ## スペック
11
+
12
+ - **アーキテクチャ**: RWKV x060 Finch
13
+ - **モデル構造**: 61層 4096次元
14
+ - **パラメータ数**: 14B(140億パラメータ)
15
+ - **最大コンテキスト長**: 32k
16
+ - **ベースモデル**: RWKV-x060-14B-JPN
17
+
18
+ ## トレーニング詳細
19
+
20
+ - **手法**: Bone法(Block Affine Transformation)によるPEFTトレーニング
21
+ - Block Size: 256
22
+ - モデル形態: アダプターのみ
23
+ - **トレーニング特徴**:
24
+ - RWKV-LM-RLHFのLoss SmoothingとSFT、BPTTを組み合わせた32kコンテキストトレーニング
25
+ - Chain-of-Thought推論強化のための特殊データセット使用
26
+
27
+ ## データセット
28
+
29
+ - **サイズ**: 100kペア
30
+ - **内容**:
31
+ - 日本語・英語の混合データ
32
+ - 会話
33
+ - プログラミングコード
34
+ - 翻訳タスク
35
+ - Chain-of-Thought推論タスク
36
+
37
+ ## 使用方法
38
+
39
+ 以下のいずれかの方法で利用可能です:
40
+
41
+ 1. RWKV-LM-RLHFレポジトリを使用してBoneマージを実行
42
+ 2. 最新のRWKV-Inferを使用して動的マージ推論を実行
43
+
44
+ ## 制限事項・注意点
45
+
46
+ - 実験的なモデルのため、推論の安定性が完全には保証されていません
47
+ - 予期せぬ挙動が発生する可能性があります
48
+ - 継続的な改善を行っているため、フィードバックを歓迎します
49
+
50
+ ## ライセンス
51
+
52
+ Apache License 2.0
53
+
54
+ ## 謝辞
55
+
56
+ このモデルの開発にあたり、RWKV-x060-14B-JPNベースモデル、RWKVコミュニティの支援に感謝いたします。
57
+
58
+ ---
59
+
60
+ このモデルに関する質問やフィードバックは、Issues機能をご利用ください。
61
+ この文章はRWKV-x060-14B-CoTで生成しました。