Gorani Model Card

소개 (Introduce)

이 모델은 번역을 위한 모델입니다. 한국 고유어의 정확한 번역을 생성하기 위해 한국어, 영어, 일본어의 언어 데이터를 혼합하여 unsloth/Llama-3.1-8B-Instruct-bnb-4bit을 학습시켜 생성된 gorani-8B 입니다.
gorani는 현재 한국어, 영어, 일본어만 번역을 지원합니다.

모델 정보

  • 개발자: lucian1120
  • 모델 유형: llama를 기반으로 하는 8B 매개변수 모델인 gorani-8B
  • 지원 언어: 한국어, 영어, 일본어
  • 라이센스: llama

Training Hyperparameters

  • per_device_train_batch_size: 8
  • gradient_accumulation_steps: 1
  • warmup_steps: 5
  • learning_rate: 2e-4
  • fp16: not is_bfloat16_supported()
  • num_train_epochs: 3
  • weight_decay: 0.01
  • lr_scheduler_type: "linear"

학습 데이터

데이터셋 링크

학습 성능 비교

![점수 비교 그래프]

📊 번역 평가 결과 비교

평가 지표 LLama 3.1-8B Gorani-8B
BERTScore (Precision) 0.7123 0.8456
BERTScore (Recall) 0.6987 0.8621
BERTScore (F1 Score) 0.7055 0.8532
COMET Score 0.5902 0.8123

image/png

Training Results

image/png

Downloads last month
235
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for lucian1120/gorani-8b

Dataset used to train lucian1120/gorani-8b