Dacon 난독화 데이터셋 파인튜닝

  • 원본 대회 정보
  • Dacon image/png

대회 링크 https://dacon.io

  • Machine Spec
  • GCP V100
    • 실행 Spec

      • batch_size : 10, max_length : 128, trl, peft, BitsAndBytesConfig, bfloat16으로 실행
      • total loss : 3.8
    • 위 모델의 데이터는 Dacon을 통해 제공 받았으며, 해당 모델은 비영리적으로 사용할 예정 입니다(포트폴리오용, 시험 제출용)

    • google/gemma-2-2b-it fine-tune

Downloads last month
10
Safetensors
Model size
2.61B params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and the model is not deployed on the HF Inference API.

Model tree for UICHEOL-HWANG/Dacon-contest-obfuscation-gemma2-2b

Base model

google/gemma-2-2b
Finetuned
(165)
this model
Quantizations
1 model