Gorani Model Card
소개 (Introduce)
이 모델은 번역을 위한 모델입니다. 한국 고유어의 정확한 번역을 생성하기 위해 한국어, 영어, 일본어의 언어 데이터를 혼합하여 unsloth/Llama-3.1-8B-Instruct-bnb-4bit을 학습시켜 생성된 gorani-8B 입니다.
gorani는 현재 한국어, 영어, 일본어만 번역을 지원합니다.
모델 정보
- 개발자: lucian1120
- 모델 유형: llama를 기반으로 하는 8B 매개변수 모델인 gorani-8B
- 지원 언어: 한국어, 영어, 일본어
- 라이센스: llama
Training Hyperparameters
- per_device_train_batch_size: 8
- gradient_accumulation_steps: 1
- warmup_steps: 5
- learning_rate: 2e-4
- fp16:
not is_bfloat16_supported()
- num_train_epochs: 3
- weight_decay: 0.01
- lr_scheduler_type: "linear"
학습 데이터
학습 성능 비교
![점수 비교 그래프]
📊 번역 평가 결과 비교
평가 지표 | LLama 3.1-8B | Gorani-8B |
---|---|---|
BERTScore (Precision) | 0.7123 | 0.8456 |
BERTScore (Recall) | 0.6987 | 0.8621 |
BERTScore (F1 Score) | 0.7055 | 0.8532 |
COMET Score | 0.5902 | 0.8123 |
Training Results
- Downloads last month
- 235
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
Model tree for lucian1120/gorani-8b
Base model
meta-llama/Llama-3.1-8B
Finetuned
meta-llama/Llama-3.1-8B-Instruct