한국어 교육 자료 파인튜닝 모델 (Korean Textbook Fine-tuned Model)

📚 모델 소개

이 모델은 unsloth/gpt-oss-20b를 기반으로 maywell/korean_textbooks 데이터셋으로 파인튜닝된 한국어 교육 전용 모델입니다. LoRA(Low-Rank Adaptation) 기술을 사용하여 효율적으로 학습되었으며, 한국어 교육 콘텐츠 생성에 특화되어 있습니다.

🎯 주요 특징

  • 베이스 모델: unsloth/gpt-oss-20b (20B 파라미터)
  • 훈련 방법: LoRA (Low-Rank Adaptation)
  • 특화 분야: 한국어 교육 콘텐츠 생성
  • 데이터셋: maywell/korean_textbooks
  • 언어: 한국어 (Korean)

🚀 사용 방법

모델 로드

from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel
import torch

# 베이스 모델 로드
base_model = AutoModelForCausalLM.from_pretrained(
    "unsloth/gpt-oss-20b",
    torch_dtype=torch.float16,
    device_map="auto",
    trust_remote_code=True
)

# LoRA 어댑터 로드
model = PeftModel.from_pretrained(base_model, "hwang2006/finetuned-korean-gpt-oss-20b")

# 토크나이저 로드
tokenizer = AutoTokenizer.from_pretrained("hwang2006/finetuned-korean-gpt-oss-20b")

사용 예시

messages = [
    {"role": "system", "content": "당신은 한국어로 교육 내용을 설명하는 도움이 되는 어시스턴트입니다."},
    {"role": "user", "content": "2의 거듭제곱에 대해 설명해주세요."}
]

inputs = tokenizer.apply_chat_template(
    messages,
    add_generation_prompt=True,
    return_tensors="pt",
    return_dict=True
).to(model.device)

with torch.no_grad():
    outputs = model.generate(
        **inputs,
        max_new_tokens=512,
        do_sample=True,
        temperature=0.7,
        top_p=0.9,
        pad_token_id=tokenizer.eos_token_id
    )

response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)

📊 훈련 정보

  • 베이스 모델: unsloth/gpt-oss-20b-unsloth-bnb-4bit
  • 훈련 스텝: 30 steps
  • LoRA Rank: 8
  • LoRA Alpha: 16
  • 타겟 모듈: q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj
  • 데이터셋: maywell/korean_textbooks

🎓 활용 분야

이 모델은 다음 분야에서 우수한 성능을 보입니다:

수학 (Mathematics)

  • 기초 수학 개념 설명
  • 대수, 기하, 미적분 문제 해설
  • 수학 공식의 직관적 이해

과학 (Science)

  • 물리, 화학, 생물학 원리 설명
  • 실험 과정 및 결과 해석
  • 과학적 현상의 이해

언어 (Language)

  • 한국어 문법 및 어휘 설명
  • 문학 작품 분석 및 해석
  • 글쓰기 기법 안내

사회 (Social Studies)

  • 역사적 사건 및 인물 설명
  • 지리적 개념 및 현상
  • 사회 제도 및 문화 이해

💻 시스템 요구사항

  • GPU 메모리: 최소 16GB (권장 24GB+)
  • 시스템 RAM: 최소 16GB
  • Python: 3.8+
  • 주요 라이브러리: transformers, peft, torch

⚠️ 주의사항

  1. 교육 목적 특화: 이 모델은 교육 콘텐츠 생성에 최적화되어 있습니다.
  2. 한국어 중심: 한국어 외의 언어에서는 성능이 제한적일 수 있습니다.
  3. 사실 확인 필요: 생성된 내용은 항상 검토하고 사실 확인이 필요합니다.
  4. 윤리적 사용: 교육적이고 건전한 목적으로만 사용해주세요.

🔗 관련 링크

📜 라이선스

이 모델은 베이스 모델인 unsloth/gpt-oss-20b의 라이선스를 따릅니다.

Downloads last month
-
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for hwang2006/finetuned-korean-gpt-oss-20b

Base model

openai/gpt-oss-20b
Adapter
(20)
this model

Dataset used to train hwang2006/finetuned-korean-gpt-oss-20b