--- language: - ja metrics: - accuracy - f1 --- - ベースモデル:cl-tohoku/bert-base-japanese-whole-word-masking - データセット:tyqiangz/multilingual-sentiments - バッチサイズ: 16固定 - オプティマイザ: adamw - Optunaでハイパーパラメータ探索 - 学習率スケジュールのタイプ(lr_scheduler_type): constant, linear, cosine - 学習率(learning rate): 1e-6 ~ 1e-4 - 勾配累積ステップ(gradient_accumulation_steps): 1, 2, 4, 8, 16 - 正則化(weight_decay): 1e-6 ~ 1e-1 - Optunaでの探索結果は以下 - 学習率スケジュールタイプ(lr_scheduler_type): cosine - 学習率(learning rate): 2.8200169553241494e-05 - 勾配累積ステップ(gradient_accumulation_steps): 1 - 正則化(weight_decay): 0.00017069715801856997