{ "best_metric": null, "best_model_checkpoint": null, "epoch": 0.9994666666666666, "eval_steps": 500, "global_step": 937, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.021333333333333333, "grad_norm": 0.3319095969200134, "learning_rate": 0.00019678111587982831, "loss": 1.2839, "step": 20 }, { "epoch": 0.042666666666666665, "grad_norm": 0.24818003177642822, "learning_rate": 0.0001924892703862661, "loss": 0.8937, "step": 40 }, { "epoch": 0.064, "grad_norm": 0.31978967785835266, "learning_rate": 0.00018819742489270387, "loss": 0.8591, "step": 60 }, { "epoch": 0.08533333333333333, "grad_norm": 0.3147682249546051, "learning_rate": 0.00018390557939914164, "loss": 0.7584, "step": 80 }, { "epoch": 0.10666666666666667, "grad_norm": 0.21340101957321167, "learning_rate": 0.00017961373390557942, "loss": 0.7803, "step": 100 }, { "epoch": 0.128, "grad_norm": 0.253539115190506, "learning_rate": 0.00017532188841201717, "loss": 0.7656, "step": 120 }, { "epoch": 0.14933333333333335, "grad_norm": 0.21647977828979492, "learning_rate": 0.00017103004291845494, "loss": 0.6745, "step": 140 }, { "epoch": 0.17066666666666666, "grad_norm": 0.19030316174030304, "learning_rate": 0.00016673819742489272, "loss": 0.7588, "step": 160 }, { "epoch": 0.192, "grad_norm": 0.2120380848646164, "learning_rate": 0.0001624463519313305, "loss": 0.7372, "step": 180 }, { "epoch": 0.21333333333333335, "grad_norm": 0.26011204719543457, "learning_rate": 0.00015815450643776824, "loss": 0.7942, "step": 200 }, { "epoch": 0.23466666666666666, "grad_norm": 0.17299017310142517, "learning_rate": 0.000153862660944206, "loss": 0.7057, "step": 220 }, { "epoch": 0.256, "grad_norm": 0.23172669112682343, "learning_rate": 0.00014957081545064377, "loss": 0.7494, "step": 240 }, { "epoch": 0.2773333333333333, "grad_norm": 0.25078052282333374, "learning_rate": 0.00014527896995708155, "loss": 0.774, "step": 260 }, { "epoch": 0.2986666666666667, "grad_norm": 0.19800706207752228, "learning_rate": 0.00014098712446351932, "loss": 0.7128, "step": 280 }, { "epoch": 0.32, "grad_norm": 0.19817090034484863, "learning_rate": 0.0001366952789699571, "loss": 0.7302, "step": 300 }, { "epoch": 0.3413333333333333, "grad_norm": 0.1999385803937912, "learning_rate": 0.00013240343347639485, "loss": 0.697, "step": 320 }, { "epoch": 0.3626666666666667, "grad_norm": 0.24058395624160767, "learning_rate": 0.00012811158798283262, "loss": 0.7555, "step": 340 }, { "epoch": 0.384, "grad_norm": 0.20885303616523743, "learning_rate": 0.0001238197424892704, "loss": 0.7221, "step": 360 }, { "epoch": 0.4053333333333333, "grad_norm": 0.2488190084695816, "learning_rate": 0.00011952789699570816, "loss": 0.7465, "step": 380 }, { "epoch": 0.4266666666666667, "grad_norm": 0.3051099181175232, "learning_rate": 0.00011523605150214594, "loss": 0.6992, "step": 400 }, { "epoch": 0.448, "grad_norm": 0.23430058360099792, "learning_rate": 0.0001109442060085837, "loss": 0.7554, "step": 420 }, { "epoch": 0.4693333333333333, "grad_norm": 0.24508674442768097, "learning_rate": 0.00010665236051502145, "loss": 0.7345, "step": 440 }, { "epoch": 0.49066666666666664, "grad_norm": 0.26047298312187195, "learning_rate": 0.00010236051502145923, "loss": 0.7066, "step": 460 }, { "epoch": 0.512, "grad_norm": 0.24808645248413086, "learning_rate": 9.8068669527897e-05, "loss": 0.7339, "step": 480 }, { "epoch": 0.5333333333333333, "grad_norm": 0.24993136525154114, "learning_rate": 9.377682403433476e-05, "loss": 0.7262, "step": 500 }, { "epoch": 0.5546666666666666, "grad_norm": 0.2886073589324951, "learning_rate": 8.948497854077254e-05, "loss": 0.7496, "step": 520 }, { "epoch": 0.576, "grad_norm": 0.2362990826368332, "learning_rate": 8.51931330472103e-05, "loss": 0.708, "step": 540 }, { "epoch": 0.5973333333333334, "grad_norm": 0.23009316623210907, "learning_rate": 8.090128755364808e-05, "loss": 0.6983, "step": 560 }, { "epoch": 0.6186666666666667, "grad_norm": 0.21879416704177856, "learning_rate": 7.660944206008584e-05, "loss": 0.7362, "step": 580 }, { "epoch": 0.64, "grad_norm": 0.2316865473985672, "learning_rate": 7.23175965665236e-05, "loss": 0.716, "step": 600 }, { "epoch": 0.6613333333333333, "grad_norm": 0.2098855823278427, "learning_rate": 6.802575107296138e-05, "loss": 0.7014, "step": 620 }, { "epoch": 0.6826666666666666, "grad_norm": 0.2637273669242859, "learning_rate": 6.373390557939914e-05, "loss": 0.7491, "step": 640 }, { "epoch": 0.704, "grad_norm": 0.24775004386901855, "learning_rate": 5.944206008583692e-05, "loss": 0.7502, "step": 660 }, { "epoch": 0.7253333333333334, "grad_norm": 0.21379879117012024, "learning_rate": 5.515021459227469e-05, "loss": 0.6884, "step": 680 }, { "epoch": 0.7466666666666667, "grad_norm": 0.244755357503891, "learning_rate": 5.085836909871244e-05, "loss": 0.7292, "step": 700 }, { "epoch": 0.768, "grad_norm": 0.2714041471481323, "learning_rate": 4.656652360515021e-05, "loss": 0.7753, "step": 720 }, { "epoch": 0.7893333333333333, "grad_norm": 0.231965571641922, "learning_rate": 4.227467811158798e-05, "loss": 0.7321, "step": 740 }, { "epoch": 0.8106666666666666, "grad_norm": 0.18257001042366028, "learning_rate": 3.798283261802575e-05, "loss": 0.7149, "step": 760 }, { "epoch": 0.832, "grad_norm": 0.23088066279888153, "learning_rate": 3.369098712446352e-05, "loss": 0.7052, "step": 780 }, { "epoch": 0.8533333333333334, "grad_norm": 0.25160226225852966, "learning_rate": 2.939914163090129e-05, "loss": 0.6551, "step": 800 }, { "epoch": 0.8746666666666667, "grad_norm": 0.2569880783557892, "learning_rate": 2.510729613733906e-05, "loss": 0.7313, "step": 820 }, { "epoch": 0.896, "grad_norm": 0.20870667695999146, "learning_rate": 2.0815450643776825e-05, "loss": 0.6884, "step": 840 }, { "epoch": 0.9173333333333333, "grad_norm": 0.2954961955547333, "learning_rate": 1.6523605150214594e-05, "loss": 0.7435, "step": 860 }, { "epoch": 0.9386666666666666, "grad_norm": 0.23469044268131256, "learning_rate": 1.2231759656652362e-05, "loss": 0.7164, "step": 880 }, { "epoch": 0.96, "grad_norm": 0.20329080522060394, "learning_rate": 7.93991416309013e-06, "loss": 0.6595, "step": 900 }, { "epoch": 0.9813333333333333, "grad_norm": 0.2282905876636505, "learning_rate": 3.648068669527897e-06, "loss": 0.7307, "step": 920 } ], "logging_steps": 20, "max_steps": 937, "num_input_tokens_seen": 0, "num_train_epochs": 1, "save_steps": 200, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 2.282099676122972e+17, "train_batch_size": 2, "trial_name": null, "trial_params": null }