File size: 2,297 Bytes
da94f35
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
---
license: llama3
base_model: elyza/Llama-3-ELYZA-JP-8B
tags:
- japanese
- legal
- judicial-exam
- 司法試験
- fine-tuned
- llama
- peft
- lora
language:
- ja
datasets:
- custom-judicial-exam-dataset
---

# 司法試験特化日本語LLM

## モデル概要

このモデルはelyza/Llama-3-ELYZA-JP-8Bをベースに、日本の司法試験問題でファインチューニングした特化モデルです。

## 特徴

- **ベースモデル**: elyza/Llama-3-ELYZA-JP-8B
- **特化分野**: 日本の司法試験(憲法、民法、刑法等)
- **言語**: 日本語
- **ファインチューニング手法**: QLoRA (Quantized Low-Rank Adaptation)

## 学習情報

- **学習データ数**: 317件
- **エポック数**: 2
- **学習時間**: 0:05:11.834189
- **LoRA ランク**: 8
- **学習率**: 5e-05

## 使用方法

### LoRAアダプター版(eyepyon/judicial-exam-llama3-jpv3-lora-v2)

```python
from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel

base_model = AutoModelForCausalLM.from_pretrained("elyza/Llama-3-ELYZA-JP-8B")
tokenizer = AutoTokenizer.from_pretrained("elyza/Llama-3-ELYZA-JP-8B")
model = PeftModel.from_pretrained(base_model, "eyepyon/judicial-exam-llama3-jpv3-lora-v2")

inputs = tokenizer("司法試験問題:", return_tensors="pt")
outputs = model.generate(**inputs, max_length=512)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
```

### マージ済みモデル版(eyepyon/judicial-exam-llama3-jpv3-merged-v2)

```python
from transformers import AutoTokenizer, AutoModelForCausalLM

model = AutoModelForCausalLM.from_pretrained("eyepyon/judicial-exam-llama3-jpv3-merged-v2")
tokenizer = AutoTokenizer.from_pretrained("eyepyon/judicial-exam-llama3-jpv3-merged-v2")

inputs = tokenizer("司法試験問題:", return_tensors="pt")
outputs = model.generate(**inputs, max_length=512)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
```

## 注意事項

- このモデルは教育・研究目的で作成されています
- 実際の司法試験や法的判断には使用しないでください
- 出力結果は参考程度に留めてください

## ライセンス

ベースモデルのLlama 3ライセンスに準拠します。

---