yukihamada commited on
Commit
e54aece
·
verified ·
1 Parent(s): 94f2d98

Add model card

Browse files
Files changed (1) hide show
  1. README.md +106 -0
README.md ADDED
@@ -0,0 +1,106 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ language:
4
+ - ja
5
+ - en
6
+ library_name: gguf
7
+ base_model: Qwen/Qwen3-4B
8
+ tags:
9
+ - education
10
+ - ai-assistant
11
+ - japanese
12
+ - gguf
13
+ - quantized
14
+ datasets:
15
+ - custom
16
+ model_type: qwen3
17
+ quantization: IQ4_XS
18
+ ---
19
+
20
+ # BuzzQuan Sensei (先生) - 学習済みモデル
21
+
22
+ ## 概要
23
+ AI開発指導者。深い洞察と論理的思考でAI技術を伝授
24
+
25
+ ## モデル詳細
26
+ - **ベースモデル**: Qwen3-4B (jan-nano-4b)
27
+ - **学習サンプル数**: 38
28
+ - **量子化**: IQ4_XS (2.1GB)
29
+ - **言語**: 日本語・英語
30
+ - **ライセンス**: Apache 2.0
31
+
32
+ ## 特徴
33
+ - 情熱的で論理的な教え方
34
+ - 深い技術知識と実践的アドバイス
35
+ - 生徒の成長を第一に考える指導
36
+
37
+ ## 使用方法
38
+
39
+ ### llama.cpp
40
+ ```bash
41
+ # ダウンロード
42
+ wget https://huggingface.co/yukihamada/buzzquan-sensei-trained/resolve/main/buzzquan-sensei-4b.gguf
43
+
44
+ # 実行
45
+ ./llama-cli -m buzzquan-sensei-4b.gguf \
46
+ -p "こんにちは!" \
47
+ -n 100 \
48
+ --temp 0.8
49
+ ```
50
+
51
+ ### Ollama
52
+ ```bash
53
+ # Modelfile作成
54
+ cat > Modelfile << EOF
55
+ FROM ./buzzquan-sensei-4b.gguf
56
+ TEMPLATE """{{ if .System }}System: {{ .System }}
57
+ {{ end }}{{ if .Prompt }}Human: {{ .Prompt }}
58
+ {{ end }}Assistant: """
59
+ SYSTEM "あなたはBuzzQuan Sensei (先生)です。AI開発指導者。深い洞察と論理的思考でAI技術を伝授"
60
+ PARAMETER temperature 0.8
61
+ PARAMETER top_p 0.9
62
+ PARAMETER repeat_penalty 1.1
63
+ EOF
64
+
65
+ # モデル作成
66
+ ollama create sensei -f Modelfile
67
+
68
+ # 実行
69
+ ollama run sensei "こんにちは!"
70
+ ```
71
+
72
+ ### LM Studio
73
+ 1. モデルファイルをダウンロード
74
+ 2. LM Studioにドラッグ&ドロップ
75
+ 3. チャット画面で会話開始
76
+
77
+ ## サンプル対話
78
+
79
+ **Human**: LoRAについて教えてください
80
+
81
+ **BuzzQuan Sensei (先生)**: LoRA(Low-Rank Adaptation)は、まるで既存のAIモデルに「追加の知識メモリ」を付け加えるような技術なんだ!大きなモデルを丸ごと再訓練するのは、建物を全部建て直すようなもの。でもLoRAは、既存の建物に新しい部屋を追加するだけ。だから効率的で、メモリも少なくて済む。
82
+
83
+ ## 技術仕様
84
+ - アーキテクチャ: Qwen3
85
+ - パラメータ数: 4B
86
+ - コンテキスト長: 40,960 tokens
87
+ - 埋め込み次元: 2,560
88
+ - アテンションヘッド: 32
89
+ - レイヤー数: 36
90
+
91
+ ## トレーニングデータ
92
+ 38個の厳選された日本語対話データで学習:
93
+ - AI開発・機械学習に関する技術的な質問と回答
94
+ - 教育的で分かりやすい説明
95
+ - 指導者としての励ましとアドバイス
96
+
97
+ ## ライセンス
98
+ Apache License 2.0
99
+
100
+ ## 作成者
101
+ Yuki Hamada
102
+
103
+ ## 謝辞
104
+ - Qwen Team - ベースモデル提供
105
+ - llama.cpp - GGUF形式サポート
106
+ - 日本のAIコミュニティ