{ "best_global_step": null, "best_metric": null, "best_model_checkpoint": null, "epoch": 2.0, "eval_steps": 500, "global_step": 384, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.052083333333333336, "grad_norm": 0.07655070722103119, "learning_rate": 4.921875e-05, "loss": 3.1871, "step": 10 }, { "epoch": 0.10416666666666667, "grad_norm": 0.09160477668046951, "learning_rate": 4.835069444444444e-05, "loss": 3.0592, "step": 20 }, { "epoch": 0.15625, "grad_norm": 0.09234557300806046, "learning_rate": 4.748263888888889e-05, "loss": 3.1982, "step": 30 }, { "epoch": 0.20833333333333334, "grad_norm": 0.09615059196949005, "learning_rate": 4.6614583333333336e-05, "loss": 3.1865, "step": 40 }, { "epoch": 0.2604166666666667, "grad_norm": 0.11428328603506088, "learning_rate": 4.574652777777778e-05, "loss": 3.1689, "step": 50 }, { "epoch": 0.3125, "grad_norm": 0.10111145675182343, "learning_rate": 4.487847222222222e-05, "loss": 3.0937, "step": 60 }, { "epoch": 0.3645833333333333, "grad_norm": 0.12738557159900665, "learning_rate": 4.401041666666667e-05, "loss": 3.143, "step": 70 }, { "epoch": 0.4166666666666667, "grad_norm": 0.14076603949069977, "learning_rate": 4.3142361111111114e-05, "loss": 3.0963, "step": 80 }, { "epoch": 0.46875, "grad_norm": 0.12179583311080933, "learning_rate": 4.227430555555556e-05, "loss": 3.0358, "step": 90 }, { "epoch": 0.5208333333333334, "grad_norm": 0.13192890584468842, "learning_rate": 4.140625e-05, "loss": 3.1517, "step": 100 }, { "epoch": 0.5729166666666666, "grad_norm": 0.12306984513998032, "learning_rate": 4.053819444444444e-05, "loss": 3.0126, "step": 110 }, { "epoch": 0.625, "grad_norm": 0.1288878321647644, "learning_rate": 3.967013888888889e-05, "loss": 3.0296, "step": 120 }, { "epoch": 0.6770833333333334, "grad_norm": 0.15506671369075775, "learning_rate": 3.8802083333333336e-05, "loss": 3.0453, "step": 130 }, { "epoch": 0.7291666666666666, "grad_norm": 0.14591804146766663, "learning_rate": 3.793402777777778e-05, "loss": 3.0611, "step": 140 }, { "epoch": 0.78125, "grad_norm": 0.14732398092746735, "learning_rate": 3.706597222222222e-05, "loss": 3.071, "step": 150 }, { "epoch": 0.8333333333333334, "grad_norm": 0.14069262146949768, "learning_rate": 3.619791666666667e-05, "loss": 3.0066, "step": 160 }, { "epoch": 0.8854166666666666, "grad_norm": 0.15924516320228577, "learning_rate": 3.5329861111111114e-05, "loss": 2.9758, "step": 170 }, { "epoch": 0.9375, "grad_norm": 0.16019809246063232, "learning_rate": 3.446180555555556e-05, "loss": 2.981, "step": 180 }, { "epoch": 0.9895833333333334, "grad_norm": 0.155264750123024, "learning_rate": 3.359375e-05, "loss": 2.9057, "step": 190 }, { "epoch": 1.0416666666666667, "grad_norm": 0.1712893545627594, "learning_rate": 3.272569444444444e-05, "loss": 2.9711, "step": 200 }, { "epoch": 1.09375, "grad_norm": 0.1758311241865158, "learning_rate": 3.185763888888889e-05, "loss": 2.9298, "step": 210 }, { "epoch": 1.1458333333333333, "grad_norm": 0.17173148691654205, "learning_rate": 3.0989583333333336e-05, "loss": 2.9685, "step": 220 }, { "epoch": 1.1979166666666667, "grad_norm": 0.19112636148929596, "learning_rate": 3.0121527777777782e-05, "loss": 2.9262, "step": 230 }, { "epoch": 1.25, "grad_norm": 0.18498270213603973, "learning_rate": 2.925347222222222e-05, "loss": 2.8788, "step": 240 }, { "epoch": 1.3020833333333333, "grad_norm": 0.1705554723739624, "learning_rate": 2.838541666666667e-05, "loss": 2.7591, "step": 250 }, { "epoch": 1.3541666666666667, "grad_norm": 0.19246017932891846, "learning_rate": 2.751736111111111e-05, "loss": 2.8625, "step": 260 }, { "epoch": 1.40625, "grad_norm": 0.17858931422233582, "learning_rate": 2.664930555555556e-05, "loss": 2.9046, "step": 270 }, { "epoch": 1.4583333333333333, "grad_norm": 0.21472914516925812, "learning_rate": 2.578125e-05, "loss": 2.8826, "step": 280 }, { "epoch": 1.5104166666666665, "grad_norm": 0.18860450387001038, "learning_rate": 2.4913194444444446e-05, "loss": 2.8265, "step": 290 }, { "epoch": 1.5625, "grad_norm": 0.17438200116157532, "learning_rate": 2.404513888888889e-05, "loss": 2.7819, "step": 300 }, { "epoch": 1.6145833333333335, "grad_norm": 0.23125068843364716, "learning_rate": 2.3177083333333335e-05, "loss": 2.8364, "step": 310 }, { "epoch": 1.6666666666666665, "grad_norm": 0.18903665244579315, "learning_rate": 2.2309027777777782e-05, "loss": 2.8423, "step": 320 }, { "epoch": 1.71875, "grad_norm": 0.22534161806106567, "learning_rate": 2.144097222222222e-05, "loss": 2.8666, "step": 330 }, { "epoch": 1.7708333333333335, "grad_norm": 0.240483358502388, "learning_rate": 2.0572916666666668e-05, "loss": 2.8409, "step": 340 }, { "epoch": 1.8229166666666665, "grad_norm": 0.23081159591674805, "learning_rate": 1.970486111111111e-05, "loss": 2.8257, "step": 350 }, { "epoch": 1.875, "grad_norm": 0.20717695355415344, "learning_rate": 1.8836805555555557e-05, "loss": 2.9202, "step": 360 }, { "epoch": 1.9270833333333335, "grad_norm": 0.21534092724323273, "learning_rate": 1.796875e-05, "loss": 2.7127, "step": 370 }, { "epoch": 1.9791666666666665, "grad_norm": 0.24049048125743866, "learning_rate": 1.7100694444444446e-05, "loss": 2.8734, "step": 380 } ], "logging_steps": 10, "max_steps": 576, "num_input_tokens_seen": 0, "num_train_epochs": 3, "save_steps": 500, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": false }, "attributes": {} } }, "total_flos": 2977001216409600.0, "train_batch_size": 4, "trial_name": null, "trial_params": null }