File size: 4,154 Bytes
5d7b593 8199ff6 5d7b593 e689430 5d7b593 e689430 5d7b593 e689430 5d7b593 e689430 5d7b593 e689430 5d7b593 e689430 5d7b593 e689430 5d7b593 e689430 5d7b593 5afbb99 5d7b593 e689430 5d7b593 532f46a 5d7b593 e689430 5d7b593 e689430 5d7b593 5afbb99 4a5b97b 5afbb99 4a5b97b 5afbb99 e8a3596 5afbb99 532f46a 5afbb99 a013694 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 |
---
base_model: llm-jp/llm-jp-3-13b
tags:
- text-generation-inference
- transformers
- unsloth
- llama
- trl
language:
- ja
---
# Uploaded model
- **Developed by:** 154teru
- **License:** apache-2.0
- **Finetuned from model :** llm-jp/llm-jp-3-13b
This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
# LLM-JP-3-13B 推論テンプレート
LLM-JP-3-13Bモデルを使用し、
GoogleColaboratoryで推論を行うためのテンプレート。
Unslothを使用。
開発方針はSFTを中心として、datasetを人間の目と感性で
可能な限り一貫性を持たせた。
同時にパラメータを調整し、サンプルコードからmax_seq_length = 2048に変更。
## インストール
```bash
pip install unsloth
pip uninstall unsloth -y && pip install --upgrade --no-cache-dir "unsloth[colab-new] @ git+https://github.com/unslothai/unsloth.git"
pip install -U torch
pip install -U peft
```
必要なライブラリは適宜保存してください。
```bash
from unsloth import FastLanguageModel
from peft import PeftModel
import torch
import json
from tqdm import tqdm
import re
```
## 使用方法
1. Hugging Faceのトークンを設定
```python
HF_TOKEN = "your_token_here"
```
2. ベースモデルとLoRAアダプターのIDを指定
```python
model_id = "llm-jp/llm-jp-3-13b"
adapter_id = "154teru/llm-jp-3-13b-it15a4_fullset_lora"
```
3. モデルとトークナイザーをロード
```python
model, tokenizer = FastLanguageModel.from_pretrained(
model_name=model_id,
dtype=None,
load_in_4bit=True,
trust_remote_code=True,
)
```
4. LoRAアダプターを統合
```python
model = PeftModel.from_pretrained(model, adapter_id, token=HF_TOKEN)
```
5. 入力データを準備
- JSONLフォーマットで、以下の構造を持つファイルを用意します:
```json
{
"task_id": "タスクID",
"input": "入力テキスト"
}
```
6. 推論を実行
```python
FastLanguageModel.for_inference(model)
results = []
for dt in tqdm(datasets):
input = dt["input"]
prompt = f"""以下は、タスクを説明する指示です。要求を適切に満たす回答を書きなさい。### 指示\n{input}\n### 回答\n"""
# 推論処理
```
7. 結果を保存
```python
json_file_id = re.sub(".*/", "", adapter_id)
with open("/content/submit.jsonl", 'w', encoding='utf-8') as f:
for result in results:
json.dump(result, f, ensure_ascii=False)
f.write('\n')
```
## 出力
JSONLファイルとして保存
```json
{
"task_id": "タスクID",
"input": "入力テキスト",
"output": "モデルの出力"
}
```
## Sample code(Google Colab)
```
model_id = "llm-jp/llm-jp-3-13b"
adapter_id = "154teru/llm-jp-3-13b-it15a4_fullset2048_lora"
#huggingface TOKEN
HF_TOKEN = ""
dtype = None
load_in_4bit = True
model, tokenizer = FastLanguageModel.from_pretrained(
model_name=model_id,
dtype=dtype,
load_in_4bit=load_in_4bit,
trust_remote_code=True,
)
model = PeftModel.from_pretrained(model, adapter_id, token = HF_TOKEN)
datasets = []
with open("/content/elyza-tasks-100-TV_0.jsonl", "r") as f:
item = ""
for line in f:
line = line.strip()
item += line
if item.endswith("}"):
datasets.append(json.loads(item))
item = ""
FastLanguageModel.for_inference(model)
results = []
for dt in tqdm(datasets):
input = dt["input"]
prompt = f"""以下は、タスクを説明する指示です。要求を適切に満たす回答を書きなさい。### 指示\n{input}\n### 回答\n"""
inputs = tokenizer([prompt], return_tensors = "pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens = 512, use_cache = True, do_sample=False, repetition_penalty=1.2)
prediction = tokenizer.decode(outputs[0], skip_special_tokens=True).split('\n### 回答')[-1]
results.append({"task_id": dt["task_id"], "input": input, "output": prediction})
with open("/content/submit.jsonl", 'w', encoding='utf-8') as f:
for result in results:
json.dump(result, f, ensure_ascii=False)
f.write('\n')
``` |