한국어 교육 자료 파인튜닝 모델 (LoRA 병합 버전)

이 모델은 unsloth/gpt-oss-20b를 기반으로 maywell/korean_textbooks 데이터셋으로 파인튜닝된 한국어 교육 전용 모델입니다. LoRA(Low-Rank Adaptation)로 학습 후, 베이스 모델에 병합하여 단일 모델로 배포됩니다.

🚀 사용 예시

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model = AutoModelForCausalLM.from_pretrained(
    "Seonghaa/gpt-oss-korean-model",
    torch_dtype=torch.float16,
    device_map="auto",
    trust_remote_code=True
)
tokenizer = AutoTokenizer.from_pretrained("Seonghaa/gpt-oss-korean-model", trust_remote_code=True)

messages = [
    {"role": "system", "content": "당신은 한국어로 교육 내용을 설명하는 도움이 되는 어시스턴트입니다."},
    {"role": "user", "content": "2의 거듭제곱에 대해 설명해주세요."}
]

inputs = tokenizer.apply_chat_template(
    messages, add_generation_prompt=True, return_tensors="pt"
).to(model.device)

outputs = model.generate(
    **inputs, max_new_tokens=512, temperature=0.7, top_p=0.9,
    pad_token_id=tokenizer.eos_token_id
)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

📊 훈련 정보

  • 베이스 모델: unsloth/gpt-oss-20b
  • 데이터셋: maywell/korean_textbooks
  • 방식: LoRA 파인튜닝 후 병합

⚠️ 주의사항

  1. 교육 목적 특화
  2. 한국어 중심
  3. 생성 내용은 반드시 검증 필요
  4. 합법적, 윤리적 사용
Downloads last month
1
Safetensors
Model size
20.9B params
Tensor type
F32
·
BF16
·
U8
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Seonghaa/gpt-oss-korean-model

Base model

openai/gpt-oss-20b
Quantized
(6)
this model

Dataset used to train Seonghaa/gpt-oss-korean-model