司法試験特化日本語LLM

モデル概要

このモデルはelyza/Llama-3-ELYZA-JP-8Bをベースに、日本の司法試験問題でファインチューニングした特化モデルです。

特徴

  • ベースモデル: elyza/Llama-3-ELYZA-JP-8B
  • 特化分野: 日本の司法試験(憲法、民法、刑法等)
  • 言語: 日本語
  • ファインチューニング手法: QLoRA (Quantized Low-Rank Adaptation)

学習情報

  • 学習データ数: 442件
  • エポック数: 1
  • 学習時間: 0:04:52.513841
  • LoRA ランク: 4
  • 学習率: 1e-05

使用方法

LoRAアダプター版(eyepyon/judicial-exam-llama3-jpv51-lora-v3)

from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel

base_model = AutoModelForCausalLM.from_pretrained("elyza/Llama-3-ELYZA-JP-8B")
tokenizer = AutoTokenizer.from_pretrained("elyza/Llama-3-ELYZA-JP-8B")
model = PeftModel.from_pretrained(base_model, "eyepyon/judicial-exam-llama3-jpv51-lora-v3")

inputs = tokenizer("司法試験問題:", return_tensors="pt")
outputs = model.generate(**inputs, max_length=512)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)

マージ済みモデル版(eyepyon/judicial-exam-llama3-jpv51-merged-v3)

from transformers import AutoTokenizer, AutoModelForCausalLM

model = AutoModelForCausalLM.from_pretrained("eyepyon/judicial-exam-llama3-jpv51-merged-v3")
tokenizer = AutoTokenizer.from_pretrained("eyepyon/judicial-exam-llama3-jpv51-merged-v3")

inputs = tokenizer("司法試験問題:", return_tensors="pt")
outputs = model.generate(**inputs, max_length=512)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)

注意事項

  • このモデルは教育・研究目的で作成されています
  • 実際の司法試験や法的判断には使用しないでください
  • 出力結果は参考程度に留めてください

ライセンス

ベースモデルのLlama 3ライセンスに準拠します。


Downloads last month
6
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for eyepyon/judicial-exam-llama3-jpv51-lora-v3

Adapter
(268)
this model