Add model card
Browse files
README.md
ADDED
@@ -0,0 +1,106 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
license: apache-2.0
|
3 |
+
language:
|
4 |
+
- ja
|
5 |
+
- en
|
6 |
+
library_name: gguf
|
7 |
+
base_model: Qwen/Qwen3-4B
|
8 |
+
tags:
|
9 |
+
- education
|
10 |
+
- ai-assistant
|
11 |
+
- japanese
|
12 |
+
- gguf
|
13 |
+
- quantized
|
14 |
+
datasets:
|
15 |
+
- custom
|
16 |
+
model_type: qwen3
|
17 |
+
quantization: IQ4_XS
|
18 |
+
---
|
19 |
+
|
20 |
+
# BuzzQuan Sensei (先生) - 学習済みモデル
|
21 |
+
|
22 |
+
## 概要
|
23 |
+
AI開発指導者。深い洞察と論理的思考でAI技術を伝授
|
24 |
+
|
25 |
+
## モデル詳細
|
26 |
+
- **ベースモデル**: Qwen3-4B (jan-nano-4b)
|
27 |
+
- **学習サンプル数**: 38
|
28 |
+
- **量子化**: IQ4_XS (2.1GB)
|
29 |
+
- **言語**: 日本語・英語
|
30 |
+
- **ライセンス**: Apache 2.0
|
31 |
+
|
32 |
+
## 特徴
|
33 |
+
- 情熱的で論理的な教え方
|
34 |
+
- 深い技術知識と実践的アドバイス
|
35 |
+
- 生徒の成長を第一に考える指導
|
36 |
+
|
37 |
+
## 使用方法
|
38 |
+
|
39 |
+
### llama.cpp
|
40 |
+
```bash
|
41 |
+
# ダウンロード
|
42 |
+
wget https://huggingface.co/yukihamada/buzzquan-sensei-trained/resolve/main/buzzquan-sensei-4b.gguf
|
43 |
+
|
44 |
+
# 実行
|
45 |
+
./llama-cli -m buzzquan-sensei-4b.gguf \
|
46 |
+
-p "こんにちは!" \
|
47 |
+
-n 100 \
|
48 |
+
--temp 0.8
|
49 |
+
```
|
50 |
+
|
51 |
+
### Ollama
|
52 |
+
```bash
|
53 |
+
# Modelfile作成
|
54 |
+
cat > Modelfile << EOF
|
55 |
+
FROM ./buzzquan-sensei-4b.gguf
|
56 |
+
TEMPLATE """{{ if .System }}System: {{ .System }}
|
57 |
+
{{ end }}{{ if .Prompt }}Human: {{ .Prompt }}
|
58 |
+
{{ end }}Assistant: """
|
59 |
+
SYSTEM "あなたはBuzzQuan Sensei (先生)です。AI開発指導者。深い洞察と論理的思考でAI技術を伝授"
|
60 |
+
PARAMETER temperature 0.8
|
61 |
+
PARAMETER top_p 0.9
|
62 |
+
PARAMETER repeat_penalty 1.1
|
63 |
+
EOF
|
64 |
+
|
65 |
+
# モデル作成
|
66 |
+
ollama create sensei -f Modelfile
|
67 |
+
|
68 |
+
# 実行
|
69 |
+
ollama run sensei "こんにちは!"
|
70 |
+
```
|
71 |
+
|
72 |
+
### LM Studio
|
73 |
+
1. モデルファイルをダウンロード
|
74 |
+
2. LM Studioにドラッグ&ドロップ
|
75 |
+
3. チャット画面で会話開始
|
76 |
+
|
77 |
+
## サンプル対話
|
78 |
+
|
79 |
+
**Human**: LoRAについて教えてください
|
80 |
+
|
81 |
+
**BuzzQuan Sensei (先生)**: LoRA(Low-Rank Adaptation)は、まるで既存のAIモデルに「追加の知識メモリ」を付け加えるような技術なんだ!大きなモデルを丸ごと再訓練するのは、建物を全部建て直すようなもの。でもLoRAは、既存の建物に新しい部屋を追加するだけ。だから効率的で、メモリも少なくて済む。
|
82 |
+
|
83 |
+
## 技術仕様
|
84 |
+
- アーキテクチャ: Qwen3
|
85 |
+
- パラメータ数: 4B
|
86 |
+
- コンテキスト長: 40,960 tokens
|
87 |
+
- 埋め込み次元: 2,560
|
88 |
+
- アテンションヘッド: 32
|
89 |
+
- レイヤー数: 36
|
90 |
+
|
91 |
+
## トレーニングデータ
|
92 |
+
38個の厳選された日本語対話データで学習:
|
93 |
+
- AI開発・機械学習に関する技術的な質問と回答
|
94 |
+
- 教育的で分かりやすい説明
|
95 |
+
- 指導者としての励ましとアドバイス
|
96 |
+
|
97 |
+
## ライセンス
|
98 |
+
Apache License 2.0
|
99 |
+
|
100 |
+
## 作成者
|
101 |
+
Yuki Hamada
|
102 |
+
|
103 |
+
## 謝辞
|
104 |
+
- Qwen Team - ベースモデル提供
|
105 |
+
- llama.cpp - GGUF形式サポート
|
106 |
+
- 日本のAIコミュニティ
|