KoGPT2 fine Tuned model
- 타겟 : 동화 데이터를 통한 동화 생성 모델
- base model : "skt/kogpt2-base-v2"
- batch-size : 8
- max_length : 512
- num_epochs : 5
- learning_rate : 5e-5
특이점
동화 데이터 특성상 한 편당 길이가 매우 길어
chunk
단위로 짜른 뒤 데이터를 학습 시킴그렇게 나눈 덕에 학습 데이터가 매우 많아
VRAM
과부하 발생frac=0.3
비율로 짤라서 학습- 추후 인퍼런스 예정
github
- Downloads last month
- 9
Inference Providers
NEW
This model is not currently available via any of the supported Inference Providers.
Model tree for UICHEOL-HWANG/KoGPT2-fairytail
Base model
skt/kogpt2-base-v2