한국어 교육 자료 파인튜닝 모델 (Korean Textbook Fine-tuned Model)
📚 모델 소개
이 모델은 unsloth/gpt-oss-20b를 기반으로 maywell/korean_textbooks 데이터셋으로 파인튜닝된 한국어 교육 전용 모델입니다. LoRA(Low-Rank Adaptation) 기술을 사용하여 효율적으로 학습되었으며, 한국어 교육 콘텐츠 생성에 특화되어 있습니다.
🎯 주요 특징
- 베이스 모델: unsloth/gpt-oss-20b (20B 파라미터)
- 훈련 방법: LoRA (Low-Rank Adaptation)
- 특화 분야: 한국어 교육 콘텐츠 생성
- 데이터셋: maywell/korean_textbooks
- 언어: 한국어 (Korean)
🚀 사용 방법
모델 로드
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel
import torch
# 베이스 모델 로드
base_model = AutoModelForCausalLM.from_pretrained(
"unsloth/gpt-oss-20b",
torch_dtype=torch.float16,
device_map="auto",
trust_remote_code=True
)
# LoRA 어댑터 로드
model = PeftModel.from_pretrained(base_model, "hwang2006/finetuned-korean-gpt-oss-20b")
# 토크나이저 로드
tokenizer = AutoTokenizer.from_pretrained("hwang2006/finetuned-korean-gpt-oss-20b")
사용 예시
messages = [
{"role": "system", "content": "당신은 한국어로 교육 내용을 설명하는 도움이 되는 어시스턴트입니다."},
{"role": "user", "content": "2의 거듭제곱에 대해 설명해주세요."}
]
inputs = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
return_tensors="pt",
return_dict=True
).to(model.device)
with torch.no_grad():
outputs = model.generate(
**inputs,
max_new_tokens=512,
do_sample=True,
temperature=0.7,
top_p=0.9,
pad_token_id=tokenizer.eos_token_id
)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
📊 훈련 정보
- 베이스 모델: unsloth/gpt-oss-20b-unsloth-bnb-4bit
- 훈련 스텝: 30 steps
- LoRA Rank: 8
- LoRA Alpha: 16
- 타겟 모듈: q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj
- 데이터셋: maywell/korean_textbooks
🎓 활용 분야
이 모델은 다음 분야에서 우수한 성능을 보입니다:
수학 (Mathematics)
- 기초 수학 개념 설명
- 대수, 기하, 미적분 문제 해설
- 수학 공식의 직관적 이해
과학 (Science)
- 물리, 화학, 생물학 원리 설명
- 실험 과정 및 결과 해석
- 과학적 현상의 이해
언어 (Language)
- 한국어 문법 및 어휘 설명
- 문학 작품 분석 및 해석
- 글쓰기 기법 안내
사회 (Social Studies)
- 역사적 사건 및 인물 설명
- 지리적 개념 및 현상
- 사회 제도 및 문화 이해
💻 시스템 요구사항
- GPU 메모리: 최소 16GB (권장 24GB+)
- 시스템 RAM: 최소 16GB
- Python: 3.8+
- 주요 라이브러리: transformers, peft, torch
⚠️ 주의사항
- 교육 목적 특화: 이 모델은 교육 콘텐츠 생성에 최적화되어 있습니다.
- 한국어 중심: 한국어 외의 언어에서는 성능이 제한적일 수 있습니다.
- 사실 확인 필요: 생성된 내용은 항상 검토하고 사실 확인이 필요합니다.
- 윤리적 사용: 교육적이고 건전한 목적으로만 사용해주세요.
🔗 관련 링크
- 베이스 모델: unsloth/gpt-oss-20b
- 데이터셋: maywell/korean_textbooks
📜 라이선스
이 모델은 베이스 모델인 unsloth/gpt-oss-20b의 라이선스를 따릅니다.
- Downloads last month
- -
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support