laaj_15k_label_only / trainer_state.json
Rakancorle1's picture
End of training
274eb51 verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 3.0,
"eval_steps": 500,
"global_step": 5625,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.005333333333333333,
"grad_norm": 2.527519837926313,
"learning_rate": 9.999922018143242e-05,
"loss": 1.3169,
"step": 10
},
{
"epoch": 0.010666666666666666,
"grad_norm": 1.2217500262985892,
"learning_rate": 9.999688075005433e-05,
"loss": 0.2259,
"step": 20
},
{
"epoch": 0.016,
"grad_norm": 1.7063323546954015,
"learning_rate": 9.999298177883903e-05,
"loss": 0.1727,
"step": 30
},
{
"epoch": 0.021333333333333333,
"grad_norm": 0.9595152122743656,
"learning_rate": 9.998752338940612e-05,
"loss": 0.1447,
"step": 40
},
{
"epoch": 0.02666666666666667,
"grad_norm": 0.8063906234511967,
"learning_rate": 9.998050575201771e-05,
"loss": 0.1589,
"step": 50
},
{
"epoch": 0.032,
"grad_norm": 0.7256544341994028,
"learning_rate": 9.997192908557323e-05,
"loss": 0.1349,
"step": 60
},
{
"epoch": 0.037333333333333336,
"grad_norm": 1.2775691392850101,
"learning_rate": 9.996179365760234e-05,
"loss": 0.1611,
"step": 70
},
{
"epoch": 0.042666666666666665,
"grad_norm": 0.891234339879045,
"learning_rate": 9.995009978425691e-05,
"loss": 0.095,
"step": 80
},
{
"epoch": 0.048,
"grad_norm": 1.0014539762676233,
"learning_rate": 9.993684783030088e-05,
"loss": 0.1724,
"step": 90
},
{
"epoch": 0.05333333333333334,
"grad_norm": 0.4613185282163861,
"learning_rate": 9.992203820909906e-05,
"loss": 0.1344,
"step": 100
},
{
"epoch": 0.058666666666666666,
"grad_norm": 0.4936082534173558,
"learning_rate": 9.990567138260413e-05,
"loss": 0.139,
"step": 110
},
{
"epoch": 0.064,
"grad_norm": 0.6281250625331747,
"learning_rate": 9.988774786134234e-05,
"loss": 0.1503,
"step": 120
},
{
"epoch": 0.06933333333333333,
"grad_norm": 0.6609681982222656,
"learning_rate": 9.986826820439743e-05,
"loss": 0.1281,
"step": 130
},
{
"epoch": 0.07466666666666667,
"grad_norm": 0.45073405661593613,
"learning_rate": 9.984723301939337e-05,
"loss": 0.1237,
"step": 140
},
{
"epoch": 0.08,
"grad_norm": 0.4859563793971423,
"learning_rate": 9.982464296247522e-05,
"loss": 0.1143,
"step": 150
},
{
"epoch": 0.08533333333333333,
"grad_norm": 1.0040414704401097,
"learning_rate": 9.980049873828887e-05,
"loss": 0.1388,
"step": 160
},
{
"epoch": 0.09066666666666667,
"grad_norm": 1.3649467816333265,
"learning_rate": 9.977480109995885e-05,
"loss": 0.1316,
"step": 170
},
{
"epoch": 0.096,
"grad_norm": 0.9375069639078025,
"learning_rate": 9.974755084906502e-05,
"loss": 0.1309,
"step": 180
},
{
"epoch": 0.10133333333333333,
"grad_norm": 0.5272662827072222,
"learning_rate": 9.97187488356174e-05,
"loss": 0.1533,
"step": 190
},
{
"epoch": 0.10666666666666667,
"grad_norm": 0.7567770578940919,
"learning_rate": 9.968839595802982e-05,
"loss": 0.1087,
"step": 200
},
{
"epoch": 0.112,
"grad_norm": 0.5554393295304938,
"learning_rate": 9.965649316309178e-05,
"loss": 0.1251,
"step": 210
},
{
"epoch": 0.11733333333333333,
"grad_norm": 0.267945653513535,
"learning_rate": 9.962304144593893e-05,
"loss": 0.139,
"step": 220
},
{
"epoch": 0.12266666666666666,
"grad_norm": 0.621672423592168,
"learning_rate": 9.958804185002209e-05,
"loss": 0.1135,
"step": 230
},
{
"epoch": 0.128,
"grad_norm": 1.4188468389916236,
"learning_rate": 9.955149546707465e-05,
"loss": 0.1108,
"step": 240
},
{
"epoch": 0.13333333333333333,
"grad_norm": 0.7690315251363559,
"learning_rate": 9.951340343707852e-05,
"loss": 0.1072,
"step": 250
},
{
"epoch": 0.13866666666666666,
"grad_norm": 0.4448856190362289,
"learning_rate": 9.947376694822861e-05,
"loss": 0.0958,
"step": 260
},
{
"epoch": 0.144,
"grad_norm": 0.3171048968849009,
"learning_rate": 9.94325872368957e-05,
"loss": 0.1215,
"step": 270
},
{
"epoch": 0.14933333333333335,
"grad_norm": 0.7032483915566803,
"learning_rate": 9.938986558758795e-05,
"loss": 0.1231,
"step": 280
},
{
"epoch": 0.15466666666666667,
"grad_norm": 0.5440645749771874,
"learning_rate": 9.934560333291076e-05,
"loss": 0.1314,
"step": 290
},
{
"epoch": 0.16,
"grad_norm": 0.3644263172558883,
"learning_rate": 9.929980185352526e-05,
"loss": 0.1159,
"step": 300
},
{
"epoch": 0.16533333333333333,
"grad_norm": 0.6584219533049036,
"learning_rate": 9.925246257810519e-05,
"loss": 0.0992,
"step": 310
},
{
"epoch": 0.17066666666666666,
"grad_norm": 0.6098867989857334,
"learning_rate": 9.920358698329242e-05,
"loss": 0.1082,
"step": 320
},
{
"epoch": 0.176,
"grad_norm": 0.33262304059635894,
"learning_rate": 9.915317659365077e-05,
"loss": 0.0989,
"step": 330
},
{
"epoch": 0.18133333333333335,
"grad_norm": 1.3865630370663775,
"learning_rate": 9.91012329816186e-05,
"loss": 0.1086,
"step": 340
},
{
"epoch": 0.18666666666666668,
"grad_norm": 0.4898056395958746,
"learning_rate": 9.904775776745958e-05,
"loss": 0.094,
"step": 350
},
{
"epoch": 0.192,
"grad_norm": 0.38662451034024775,
"learning_rate": 9.899275261921234e-05,
"loss": 0.1049,
"step": 360
},
{
"epoch": 0.19733333333333333,
"grad_norm": 0.9174406692478881,
"learning_rate": 9.893621925263832e-05,
"loss": 0.0932,
"step": 370
},
{
"epoch": 0.20266666666666666,
"grad_norm": 0.49949585319933887,
"learning_rate": 9.887815943116827e-05,
"loss": 0.1375,
"step": 380
},
{
"epoch": 0.208,
"grad_norm": 0.5799440882608599,
"learning_rate": 9.881857496584726e-05,
"loss": 0.1369,
"step": 390
},
{
"epoch": 0.21333333333333335,
"grad_norm": 0.2671641057655543,
"learning_rate": 9.875746771527816e-05,
"loss": 0.1262,
"step": 400
},
{
"epoch": 0.21866666666666668,
"grad_norm": 0.771284531488365,
"learning_rate": 9.869483958556375e-05,
"loss": 0.1059,
"step": 410
},
{
"epoch": 0.224,
"grad_norm": 0.5429595441040385,
"learning_rate": 9.863069253024719e-05,
"loss": 0.1039,
"step": 420
},
{
"epoch": 0.22933333333333333,
"grad_norm": 0.7666811211976798,
"learning_rate": 9.8565028550251e-05,
"loss": 0.0927,
"step": 430
},
{
"epoch": 0.23466666666666666,
"grad_norm": 0.39313244077517323,
"learning_rate": 9.849784969381486e-05,
"loss": 0.1034,
"step": 440
},
{
"epoch": 0.24,
"grad_norm": 0.35614340978914794,
"learning_rate": 9.842915805643155e-05,
"loss": 0.1123,
"step": 450
},
{
"epoch": 0.24533333333333332,
"grad_norm": 0.4242617271790788,
"learning_rate": 9.835895578078165e-05,
"loss": 0.1046,
"step": 460
},
{
"epoch": 0.25066666666666665,
"grad_norm": 0.6236524465914113,
"learning_rate": 9.828724505666664e-05,
"loss": 0.1029,
"step": 470
},
{
"epoch": 0.256,
"grad_norm": 0.22247428919605555,
"learning_rate": 9.821402812094073e-05,
"loss": 0.1158,
"step": 480
},
{
"epoch": 0.2613333333333333,
"grad_norm": 0.6283722467794063,
"learning_rate": 9.813930725744094e-05,
"loss": 0.1519,
"step": 490
},
{
"epoch": 0.26666666666666666,
"grad_norm": 0.44272267215409905,
"learning_rate": 9.806308479691595e-05,
"loss": 0.1008,
"step": 500
},
{
"epoch": 0.272,
"grad_norm": 0.48371539367139976,
"learning_rate": 9.798536311695334e-05,
"loss": 0.0934,
"step": 510
},
{
"epoch": 0.2773333333333333,
"grad_norm": 0.586013851777777,
"learning_rate": 9.790614464190549e-05,
"loss": 0.1281,
"step": 520
},
{
"epoch": 0.2826666666666667,
"grad_norm": 0.2967578651324173,
"learning_rate": 9.78254318428139e-05,
"loss": 0.1304,
"step": 530
},
{
"epoch": 0.288,
"grad_norm": 0.4049276594931381,
"learning_rate": 9.774322723733216e-05,
"loss": 0.1062,
"step": 540
},
{
"epoch": 0.29333333333333333,
"grad_norm": 0.286856627209973,
"learning_rate": 9.765953338964735e-05,
"loss": 0.1134,
"step": 550
},
{
"epoch": 0.2986666666666667,
"grad_norm": 0.2087126501500343,
"learning_rate": 9.757435291040016e-05,
"loss": 0.1043,
"step": 560
},
{
"epoch": 0.304,
"grad_norm": 0.2791420695834158,
"learning_rate": 9.748768845660334e-05,
"loss": 0.1053,
"step": 570
},
{
"epoch": 0.30933333333333335,
"grad_norm": 1.9684125174499263,
"learning_rate": 9.739954273155891e-05,
"loss": 0.1138,
"step": 580
},
{
"epoch": 0.31466666666666665,
"grad_norm": 0.681459403334468,
"learning_rate": 9.730991848477379e-05,
"loss": 0.1032,
"step": 590
},
{
"epoch": 0.32,
"grad_norm": 0.4786957443473249,
"learning_rate": 9.721881851187406e-05,
"loss": 0.0936,
"step": 600
},
{
"epoch": 0.3253333333333333,
"grad_norm": 0.44957897135812,
"learning_rate": 9.712624565451772e-05,
"loss": 0.0888,
"step": 610
},
{
"epoch": 0.33066666666666666,
"grad_norm": 0.24026162351393507,
"learning_rate": 9.703220280030608e-05,
"loss": 0.106,
"step": 620
},
{
"epoch": 0.336,
"grad_norm": 0.32556520051413007,
"learning_rate": 9.693669288269372e-05,
"loss": 0.1165,
"step": 630
},
{
"epoch": 0.3413333333333333,
"grad_norm": 0.2943672077441584,
"learning_rate": 9.68397188808969e-05,
"loss": 0.0988,
"step": 640
},
{
"epoch": 0.3466666666666667,
"grad_norm": 0.8044529900995033,
"learning_rate": 9.674128381980072e-05,
"loss": 0.1449,
"step": 650
},
{
"epoch": 0.352,
"grad_norm": 0.33481021770364683,
"learning_rate": 9.664139076986473e-05,
"loss": 0.1193,
"step": 660
},
{
"epoch": 0.35733333333333334,
"grad_norm": 0.5027467655545239,
"learning_rate": 9.654004284702711e-05,
"loss": 0.089,
"step": 670
},
{
"epoch": 0.3626666666666667,
"grad_norm": 0.5472848345738294,
"learning_rate": 9.643724321260756e-05,
"loss": 0.1619,
"step": 680
},
{
"epoch": 0.368,
"grad_norm": 0.26692395643039374,
"learning_rate": 9.63329950732086e-05,
"loss": 0.1078,
"step": 690
},
{
"epoch": 0.37333333333333335,
"grad_norm": 0.4010111324591282,
"learning_rate": 9.622730168061567e-05,
"loss": 0.0978,
"step": 700
},
{
"epoch": 0.37866666666666665,
"grad_norm": 0.48164169168960175,
"learning_rate": 9.612016633169551e-05,
"loss": 0.1146,
"step": 710
},
{
"epoch": 0.384,
"grad_norm": 0.2996078987983414,
"learning_rate": 9.601159236829352e-05,
"loss": 0.1078,
"step": 720
},
{
"epoch": 0.3893333333333333,
"grad_norm": 1.0373192047967936,
"learning_rate": 9.59015831771294e-05,
"loss": 0.1156,
"step": 730
},
{
"epoch": 0.39466666666666667,
"grad_norm": 0.40223660912362824,
"learning_rate": 9.579014218969158e-05,
"loss": 0.0982,
"step": 740
},
{
"epoch": 0.4,
"grad_norm": 0.21815392621960197,
"learning_rate": 9.567727288213005e-05,
"loss": 0.1039,
"step": 750
},
{
"epoch": 0.4053333333333333,
"grad_norm": 0.4080792877842143,
"learning_rate": 9.556297877514812e-05,
"loss": 0.1328,
"step": 760
},
{
"epoch": 0.4106666666666667,
"grad_norm": 0.5388029930963009,
"learning_rate": 9.544726343389244e-05,
"loss": 0.096,
"step": 770
},
{
"epoch": 0.416,
"grad_norm": 0.34087511712303464,
"learning_rate": 9.533013046784189e-05,
"loss": 0.1168,
"step": 780
},
{
"epoch": 0.42133333333333334,
"grad_norm": 0.5699818709360815,
"learning_rate": 9.521158353069494e-05,
"loss": 0.1114,
"step": 790
},
{
"epoch": 0.4266666666666667,
"grad_norm": 0.6031540208330821,
"learning_rate": 9.50916263202557e-05,
"loss": 0.1026,
"step": 800
},
{
"epoch": 0.432,
"grad_norm": 0.5762572516661171,
"learning_rate": 9.497026257831855e-05,
"loss": 0.1092,
"step": 810
},
{
"epoch": 0.43733333333333335,
"grad_norm": 0.3150411940705835,
"learning_rate": 9.48474960905515e-05,
"loss": 0.0952,
"step": 820
},
{
"epoch": 0.44266666666666665,
"grad_norm": 0.41564573633210944,
"learning_rate": 9.4723330686378e-05,
"loss": 0.1267,
"step": 830
},
{
"epoch": 0.448,
"grad_norm": 0.6459733326527741,
"learning_rate": 9.459777023885755e-05,
"loss": 0.1463,
"step": 840
},
{
"epoch": 0.4533333333333333,
"grad_norm": 0.4544523329308658,
"learning_rate": 9.447081866456489e-05,
"loss": 0.1205,
"step": 850
},
{
"epoch": 0.45866666666666667,
"grad_norm": 0.6314480656594348,
"learning_rate": 9.43424799234678e-05,
"loss": 0.1124,
"step": 860
},
{
"epoch": 0.464,
"grad_norm": 0.9064983922849971,
"learning_rate": 9.421275801880362e-05,
"loss": 0.1264,
"step": 870
},
{
"epoch": 0.4693333333333333,
"grad_norm": 0.34827052112884926,
"learning_rate": 9.408165699695435e-05,
"loss": 0.1405,
"step": 880
},
{
"epoch": 0.4746666666666667,
"grad_norm": 0.7296914862034377,
"learning_rate": 9.394918094732043e-05,
"loss": 0.1045,
"step": 890
},
{
"epoch": 0.48,
"grad_norm": 0.5691591905076876,
"learning_rate": 9.381533400219318e-05,
"loss": 0.1077,
"step": 900
},
{
"epoch": 0.48533333333333334,
"grad_norm": 0.19686521078594849,
"learning_rate": 9.368012033662594e-05,
"loss": 0.0984,
"step": 910
},
{
"epoch": 0.49066666666666664,
"grad_norm": 0.5861688203465645,
"learning_rate": 9.354354416830377e-05,
"loss": 0.1247,
"step": 920
},
{
"epoch": 0.496,
"grad_norm": 0.3698896107522038,
"learning_rate": 9.340560975741197e-05,
"loss": 0.0954,
"step": 930
},
{
"epoch": 0.5013333333333333,
"grad_norm": 0.4055428324426277,
"learning_rate": 9.326632140650311e-05,
"loss": 0.084,
"step": 940
},
{
"epoch": 0.5066666666666667,
"grad_norm": 0.4912284452838202,
"learning_rate": 9.312568346036288e-05,
"loss": 0.0972,
"step": 950
},
{
"epoch": 0.512,
"grad_norm": 1.98707414671174,
"learning_rate": 9.298370030587456e-05,
"loss": 0.1029,
"step": 960
},
{
"epoch": 0.5173333333333333,
"grad_norm": 0.523111390361901,
"learning_rate": 9.284037637188215e-05,
"loss": 0.1153,
"step": 970
},
{
"epoch": 0.5226666666666666,
"grad_norm": 0.4595031590409469,
"learning_rate": 9.269571612905225e-05,
"loss": 0.0967,
"step": 980
},
{
"epoch": 0.528,
"grad_norm": 0.41694493527192783,
"learning_rate": 9.254972408973461e-05,
"loss": 0.0808,
"step": 990
},
{
"epoch": 0.5333333333333333,
"grad_norm": 0.24448609202401553,
"learning_rate": 9.24024048078213e-05,
"loss": 0.0696,
"step": 1000
},
{
"epoch": 0.5386666666666666,
"grad_norm": 0.7981995853878727,
"learning_rate": 9.225376287860484e-05,
"loss": 0.1464,
"step": 1010
},
{
"epoch": 0.544,
"grad_norm": 0.36979735343675585,
"learning_rate": 9.210380293863462e-05,
"loss": 0.0991,
"step": 1020
},
{
"epoch": 0.5493333333333333,
"grad_norm": 0.1815432344994382,
"learning_rate": 9.19525296655725e-05,
"loss": 0.0968,
"step": 1030
},
{
"epoch": 0.5546666666666666,
"grad_norm": 0.511586422349771,
"learning_rate": 9.179994777804677e-05,
"loss": 0.1397,
"step": 1040
},
{
"epoch": 0.56,
"grad_norm": 0.36983554709298194,
"learning_rate": 9.164606203550497e-05,
"loss": 0.0757,
"step": 1050
},
{
"epoch": 0.5653333333333334,
"grad_norm": 0.5441496644962687,
"learning_rate": 9.149087723806548e-05,
"loss": 0.134,
"step": 1060
},
{
"epoch": 0.5706666666666667,
"grad_norm": 0.27594480177214126,
"learning_rate": 9.133439822636778e-05,
"loss": 0.104,
"step": 1070
},
{
"epoch": 0.576,
"grad_norm": 1.2493427391342404,
"learning_rate": 9.117662988142138e-05,
"loss": 0.1177,
"step": 1080
},
{
"epoch": 0.5813333333333334,
"grad_norm": 0.39022278227737894,
"learning_rate": 9.10175771244537e-05,
"loss": 0.0992,
"step": 1090
},
{
"epoch": 0.5866666666666667,
"grad_norm": 0.5315721039184661,
"learning_rate": 9.085724491675642e-05,
"loss": 0.0918,
"step": 1100
},
{
"epoch": 0.592,
"grad_norm": 0.3982212002944754,
"learning_rate": 9.069563825953092e-05,
"loss": 0.103,
"step": 1110
},
{
"epoch": 0.5973333333333334,
"grad_norm": 0.49935235937776945,
"learning_rate": 9.0532762193732e-05,
"loss": 0.1071,
"step": 1120
},
{
"epoch": 0.6026666666666667,
"grad_norm": 0.4389471233741121,
"learning_rate": 9.036862179991093e-05,
"loss": 0.0956,
"step": 1130
},
{
"epoch": 0.608,
"grad_norm": 0.37583931374054275,
"learning_rate": 9.020322219805674e-05,
"loss": 0.119,
"step": 1140
},
{
"epoch": 0.6133333333333333,
"grad_norm": 0.4007269137978201,
"learning_rate": 9.003656854743667e-05,
"loss": 0.0989,
"step": 1150
},
{
"epoch": 0.6186666666666667,
"grad_norm": 0.22983748867448808,
"learning_rate": 8.986866604643518e-05,
"loss": 0.1216,
"step": 1160
},
{
"epoch": 0.624,
"grad_norm": 0.2919129177702082,
"learning_rate": 8.969951993239177e-05,
"loss": 0.1159,
"step": 1170
},
{
"epoch": 0.6293333333333333,
"grad_norm": 0.42685465915232523,
"learning_rate": 8.952913548143765e-05,
"loss": 0.1053,
"step": 1180
},
{
"epoch": 0.6346666666666667,
"grad_norm": 0.4940766540466555,
"learning_rate": 8.935751800833117e-05,
"loss": 0.1246,
"step": 1190
},
{
"epoch": 0.64,
"grad_norm": 0.8014891920598766,
"learning_rate": 8.9184672866292e-05,
"loss": 0.0953,
"step": 1200
},
{
"epoch": 0.6453333333333333,
"grad_norm": 1.0102261826167123,
"learning_rate": 8.901060544683418e-05,
"loss": 0.1363,
"step": 1210
},
{
"epoch": 0.6506666666666666,
"grad_norm": 0.3381029898442774,
"learning_rate": 8.883532117959796e-05,
"loss": 0.1119,
"step": 1220
},
{
"epoch": 0.656,
"grad_norm": 0.1765807017912055,
"learning_rate": 8.865882553218037e-05,
"loss": 0.1045,
"step": 1230
},
{
"epoch": 0.6613333333333333,
"grad_norm": 0.2481008489208638,
"learning_rate": 8.848112400996473e-05,
"loss": 0.0844,
"step": 1240
},
{
"epoch": 0.6666666666666666,
"grad_norm": 0.40257494294240137,
"learning_rate": 8.83022221559489e-05,
"loss": 0.1098,
"step": 1250
},
{
"epoch": 0.672,
"grad_norm": 0.21659444832113053,
"learning_rate": 8.81221255505724e-05,
"loss": 0.0841,
"step": 1260
},
{
"epoch": 0.6773333333333333,
"grad_norm": 0.45003590946007693,
"learning_rate": 8.794083981154229e-05,
"loss": 0.0953,
"step": 1270
},
{
"epoch": 0.6826666666666666,
"grad_norm": 0.3060785231041838,
"learning_rate": 8.775837059365796e-05,
"loss": 0.0891,
"step": 1280
},
{
"epoch": 0.688,
"grad_norm": 0.48212842497089275,
"learning_rate": 8.757472358863481e-05,
"loss": 0.1213,
"step": 1290
},
{
"epoch": 0.6933333333333334,
"grad_norm": 0.38183312129397007,
"learning_rate": 8.73899045249266e-05,
"loss": 0.1262,
"step": 1300
},
{
"epoch": 0.6986666666666667,
"grad_norm": 0.16897278886925582,
"learning_rate": 8.720391916754683e-05,
"loss": 0.1105,
"step": 1310
},
{
"epoch": 0.704,
"grad_norm": 0.41454203752344526,
"learning_rate": 8.701677331788891e-05,
"loss": 0.1167,
"step": 1320
},
{
"epoch": 0.7093333333333334,
"grad_norm": 0.5424739075366093,
"learning_rate": 8.682847281354517e-05,
"loss": 0.1044,
"step": 1330
},
{
"epoch": 0.7146666666666667,
"grad_norm": 0.41458214478139377,
"learning_rate": 8.663902352812478e-05,
"loss": 0.0943,
"step": 1340
},
{
"epoch": 0.72,
"grad_norm": 0.6110458816083125,
"learning_rate": 8.644843137107059e-05,
"loss": 0.105,
"step": 1350
},
{
"epoch": 0.7253333333333334,
"grad_norm": 0.3027146897010462,
"learning_rate": 8.625670228747467e-05,
"loss": 0.0948,
"step": 1360
},
{
"epoch": 0.7306666666666667,
"grad_norm": 0.5887145713143892,
"learning_rate": 8.606384225789303e-05,
"loss": 0.1068,
"step": 1370
},
{
"epoch": 0.736,
"grad_norm": 0.32262143676240707,
"learning_rate": 8.586985729815894e-05,
"loss": 0.126,
"step": 1380
},
{
"epoch": 0.7413333333333333,
"grad_norm": 0.4594442396043774,
"learning_rate": 8.567475345919532e-05,
"loss": 0.1265,
"step": 1390
},
{
"epoch": 0.7466666666666667,
"grad_norm": 0.2802249758279088,
"learning_rate": 8.547853682682604e-05,
"loss": 0.1031,
"step": 1400
},
{
"epoch": 0.752,
"grad_norm": 0.1705018814892353,
"learning_rate": 8.528121352158604e-05,
"loss": 0.0739,
"step": 1410
},
{
"epoch": 0.7573333333333333,
"grad_norm": 0.5164855267342361,
"learning_rate": 8.508278969853037e-05,
"loss": 0.1111,
"step": 1420
},
{
"epoch": 0.7626666666666667,
"grad_norm": 0.9191210384434311,
"learning_rate": 8.488327154704232e-05,
"loss": 0.1354,
"step": 1430
},
{
"epoch": 0.768,
"grad_norm": 0.36159045866308576,
"learning_rate": 8.468266529064025e-05,
"loss": 0.1053,
"step": 1440
},
{
"epoch": 0.7733333333333333,
"grad_norm": 0.8350887956434945,
"learning_rate": 8.44809771867835e-05,
"loss": 0.077,
"step": 1450
},
{
"epoch": 0.7786666666666666,
"grad_norm": 0.35373662825924956,
"learning_rate": 8.427821352667718e-05,
"loss": 0.1073,
"step": 1460
},
{
"epoch": 0.784,
"grad_norm": 0.3853120309973442,
"learning_rate": 8.4074380635076e-05,
"loss": 0.1046,
"step": 1470
},
{
"epoch": 0.7893333333333333,
"grad_norm": 0.5506619093665587,
"learning_rate": 8.386948487008686e-05,
"loss": 0.1367,
"step": 1480
},
{
"epoch": 0.7946666666666666,
"grad_norm": 0.44255605679561044,
"learning_rate": 8.366353262297069e-05,
"loss": 0.1123,
"step": 1490
},
{
"epoch": 0.8,
"grad_norm": 0.8496883184367431,
"learning_rate": 8.345653031794292e-05,
"loss": 0.1183,
"step": 1500
},
{
"epoch": 0.8053333333333333,
"grad_norm": 0.7598934543131802,
"learning_rate": 8.324848441197317e-05,
"loss": 0.1108,
"step": 1510
},
{
"epoch": 0.8106666666666666,
"grad_norm": 0.4173694678153346,
"learning_rate": 8.303940139458389e-05,
"loss": 0.1593,
"step": 1520
},
{
"epoch": 0.816,
"grad_norm": 0.4368115956131347,
"learning_rate": 8.282928778764783e-05,
"loss": 0.0826,
"step": 1530
},
{
"epoch": 0.8213333333333334,
"grad_norm": 0.997856058035319,
"learning_rate": 8.261815014518466e-05,
"loss": 0.123,
"step": 1540
},
{
"epoch": 0.8266666666666667,
"grad_norm": 0.6374783961684617,
"learning_rate": 8.240599505315655e-05,
"loss": 0.1221,
"step": 1550
},
{
"epoch": 0.832,
"grad_norm": 0.34489760269429076,
"learning_rate": 8.21928291292627e-05,
"loss": 0.1178,
"step": 1560
},
{
"epoch": 0.8373333333333334,
"grad_norm": 0.30775052627241856,
"learning_rate": 8.19786590227329e-05,
"loss": 0.1019,
"step": 1570
},
{
"epoch": 0.8426666666666667,
"grad_norm": 0.22077560925817727,
"learning_rate": 8.176349141412022e-05,
"loss": 0.0848,
"step": 1580
},
{
"epoch": 0.848,
"grad_norm": 0.4258026165561442,
"learning_rate": 8.154733301509248e-05,
"loss": 0.0896,
"step": 1590
},
{
"epoch": 0.8533333333333334,
"grad_norm": 0.6558502712245985,
"learning_rate": 8.133019056822304e-05,
"loss": 0.0899,
"step": 1600
},
{
"epoch": 0.8586666666666667,
"grad_norm": 1.0125852396857424,
"learning_rate": 8.111207084678032e-05,
"loss": 0.1104,
"step": 1610
},
{
"epoch": 0.864,
"grad_norm": 0.5541441721835062,
"learning_rate": 8.089298065451672e-05,
"loss": 0.1062,
"step": 1620
},
{
"epoch": 0.8693333333333333,
"grad_norm": 0.5365675665886724,
"learning_rate": 8.067292682545622e-05,
"loss": 0.1112,
"step": 1630
},
{
"epoch": 0.8746666666666667,
"grad_norm": 0.332409475838846,
"learning_rate": 8.045191622368128e-05,
"loss": 0.0996,
"step": 1640
},
{
"epoch": 0.88,
"grad_norm": 0.4204325936155781,
"learning_rate": 8.022995574311876e-05,
"loss": 0.0739,
"step": 1650
},
{
"epoch": 0.8853333333333333,
"grad_norm": 0.6962438688373588,
"learning_rate": 8.000705230732478e-05,
"loss": 0.1168,
"step": 1660
},
{
"epoch": 0.8906666666666667,
"grad_norm": 0.3222130925670093,
"learning_rate": 7.97832128692689e-05,
"loss": 0.0907,
"step": 1670
},
{
"epoch": 0.896,
"grad_norm": 0.6122766792397801,
"learning_rate": 7.95584444111171e-05,
"loss": 0.0824,
"step": 1680
},
{
"epoch": 0.9013333333333333,
"grad_norm": 0.1065527730481782,
"learning_rate": 7.933275394401406e-05,
"loss": 0.1244,
"step": 1690
},
{
"epoch": 0.9066666666666666,
"grad_norm": 0.37140617303140827,
"learning_rate": 7.910614850786448e-05,
"loss": 0.1153,
"step": 1700
},
{
"epoch": 0.912,
"grad_norm": 0.29395969029711,
"learning_rate": 7.887863517111338e-05,
"loss": 0.0907,
"step": 1710
},
{
"epoch": 0.9173333333333333,
"grad_norm": 0.4911911108712018,
"learning_rate": 7.865022103052578e-05,
"loss": 0.1096,
"step": 1720
},
{
"epoch": 0.9226666666666666,
"grad_norm": 0.42139190410067234,
"learning_rate": 7.842091321096515e-05,
"loss": 0.1,
"step": 1730
},
{
"epoch": 0.928,
"grad_norm": 0.22412934787084188,
"learning_rate": 7.819071886517134e-05,
"loss": 0.0902,
"step": 1740
},
{
"epoch": 0.9333333333333333,
"grad_norm": 0.3979173949902298,
"learning_rate": 7.795964517353735e-05,
"loss": 0.1013,
"step": 1750
},
{
"epoch": 0.9386666666666666,
"grad_norm": 0.4614257858507046,
"learning_rate": 7.772769934388537e-05,
"loss": 0.0869,
"step": 1760
},
{
"epoch": 0.944,
"grad_norm": 0.3763094165767397,
"learning_rate": 7.7494888611242e-05,
"loss": 0.1147,
"step": 1770
},
{
"epoch": 0.9493333333333334,
"grad_norm": 0.31609328781987217,
"learning_rate": 7.726122023761251e-05,
"loss": 0.1223,
"step": 1780
},
{
"epoch": 0.9546666666666667,
"grad_norm": 0.37271419310563314,
"learning_rate": 7.702670151175436e-05,
"loss": 0.0788,
"step": 1790
},
{
"epoch": 0.96,
"grad_norm": 0.48050449945695367,
"learning_rate": 7.679133974894983e-05,
"loss": 0.1075,
"step": 1800
},
{
"epoch": 0.9653333333333334,
"grad_norm": 0.6907172070372132,
"learning_rate": 7.655514229077784e-05,
"loss": 0.1055,
"step": 1810
},
{
"epoch": 0.9706666666666667,
"grad_norm": 0.5443195130424558,
"learning_rate": 7.631811650488489e-05,
"loss": 0.0846,
"step": 1820
},
{
"epoch": 0.976,
"grad_norm": 0.4205371880431266,
"learning_rate": 7.60802697847554e-05,
"loss": 0.0695,
"step": 1830
},
{
"epoch": 0.9813333333333333,
"grad_norm": 0.5120314719588245,
"learning_rate": 7.584160954948086e-05,
"loss": 0.1013,
"step": 1840
},
{
"epoch": 0.9866666666666667,
"grad_norm": 0.36768845767784575,
"learning_rate": 7.560214324352858e-05,
"loss": 0.1076,
"step": 1850
},
{
"epoch": 0.992,
"grad_norm": 0.3711863966997295,
"learning_rate": 7.536187833650947e-05,
"loss": 0.0944,
"step": 1860
},
{
"epoch": 0.9973333333333333,
"grad_norm": 0.6631685096367039,
"learning_rate": 7.512082232294491e-05,
"loss": 0.1176,
"step": 1870
},
{
"epoch": 1.0026666666666666,
"grad_norm": 0.29960848160240294,
"learning_rate": 7.487898272203313e-05,
"loss": 0.0822,
"step": 1880
},
{
"epoch": 1.008,
"grad_norm": 0.2478259825331279,
"learning_rate": 7.463636707741458e-05,
"loss": 0.1009,
"step": 1890
},
{
"epoch": 1.0133333333333334,
"grad_norm": 0.30290477113509606,
"learning_rate": 7.439298295693665e-05,
"loss": 0.0676,
"step": 1900
},
{
"epoch": 1.0186666666666666,
"grad_norm": 0.40197799057007644,
"learning_rate": 7.414883795241753e-05,
"loss": 0.0779,
"step": 1910
},
{
"epoch": 1.024,
"grad_norm": 0.4652260546983315,
"learning_rate": 7.390393967940962e-05,
"loss": 0.0841,
"step": 1920
},
{
"epoch": 1.0293333333333334,
"grad_norm": 0.43365388964393553,
"learning_rate": 7.365829577696166e-05,
"loss": 0.0648,
"step": 1930
},
{
"epoch": 1.0346666666666666,
"grad_norm": 0.5498189712127223,
"learning_rate": 7.341191390738073e-05,
"loss": 0.0878,
"step": 1940
},
{
"epoch": 1.04,
"grad_norm": 0.2612575956117774,
"learning_rate": 7.316480175599309e-05,
"loss": 0.0754,
"step": 1950
},
{
"epoch": 1.0453333333333332,
"grad_norm": 0.3248921036879903,
"learning_rate": 7.29169670309045e-05,
"loss": 0.1143,
"step": 1960
},
{
"epoch": 1.0506666666666666,
"grad_norm": 0.570016016242483,
"learning_rate": 7.266841746275976e-05,
"loss": 0.0759,
"step": 1970
},
{
"epoch": 1.056,
"grad_norm": 0.4209678000087214,
"learning_rate": 7.241916080450163e-05,
"loss": 0.0645,
"step": 1980
},
{
"epoch": 1.0613333333333332,
"grad_norm": 0.36521562277579905,
"learning_rate": 7.216920483112886e-05,
"loss": 0.0686,
"step": 1990
},
{
"epoch": 1.0666666666666667,
"grad_norm": 0.6100574260336612,
"learning_rate": 7.191855733945387e-05,
"loss": 0.0941,
"step": 2000
},
{
"epoch": 1.072,
"grad_norm": 0.522948740669964,
"learning_rate": 7.166722614785937e-05,
"loss": 0.0923,
"step": 2010
},
{
"epoch": 1.0773333333333333,
"grad_norm": 0.17259747644545873,
"learning_rate": 7.141521909605452e-05,
"loss": 0.0746,
"step": 2020
},
{
"epoch": 1.0826666666666667,
"grad_norm": 0.4207681411604061,
"learning_rate": 7.116254404483049e-05,
"loss": 0.095,
"step": 2030
},
{
"epoch": 1.088,
"grad_norm": 1.6998180333313226,
"learning_rate": 7.090920887581506e-05,
"loss": 0.1009,
"step": 2040
},
{
"epoch": 1.0933333333333333,
"grad_norm": 0.3589115559771677,
"learning_rate": 7.06552214912271e-05,
"loss": 0.0735,
"step": 2050
},
{
"epoch": 1.0986666666666667,
"grad_norm": 0.23326365127982182,
"learning_rate": 7.040058981362965e-05,
"loss": 0.0967,
"step": 2060
},
{
"epoch": 1.104,
"grad_norm": 0.37425404856242867,
"learning_rate": 7.014532178568314e-05,
"loss": 0.0922,
"step": 2070
},
{
"epoch": 1.1093333333333333,
"grad_norm": 0.44032451781729426,
"learning_rate": 6.98894253698975e-05,
"loss": 0.0982,
"step": 2080
},
{
"epoch": 1.1146666666666667,
"grad_norm": 0.28668555508751375,
"learning_rate": 6.963290854838376e-05,
"loss": 0.0776,
"step": 2090
},
{
"epoch": 1.12,
"grad_norm": 0.24707405350103206,
"learning_rate": 6.937577932260515e-05,
"loss": 0.0882,
"step": 2100
},
{
"epoch": 1.1253333333333333,
"grad_norm": 0.16021388044237267,
"learning_rate": 6.911804571312745e-05,
"loss": 0.094,
"step": 2110
},
{
"epoch": 1.1306666666666667,
"grad_norm": 0.2961729289260407,
"learning_rate": 6.885971575936883e-05,
"loss": 0.0701,
"step": 2120
},
{
"epoch": 1.1360000000000001,
"grad_norm": 0.4572402166698293,
"learning_rate": 6.860079751934908e-05,
"loss": 0.1047,
"step": 2130
},
{
"epoch": 1.1413333333333333,
"grad_norm": 0.48890815149548195,
"learning_rate": 6.834129906943822e-05,
"loss": 0.1013,
"step": 2140
},
{
"epoch": 1.1466666666666667,
"grad_norm": 0.18647040347946883,
"learning_rate": 6.808122850410461e-05,
"loss": 0.0732,
"step": 2150
},
{
"epoch": 1.152,
"grad_norm": 0.17845365980179767,
"learning_rate": 6.782059393566253e-05,
"loss": 0.0691,
"step": 2160
},
{
"epoch": 1.1573333333333333,
"grad_norm": 0.27522546946949755,
"learning_rate": 6.755940349401901e-05,
"loss": 0.083,
"step": 2170
},
{
"epoch": 1.1626666666666667,
"grad_norm": 0.3101212649627153,
"learning_rate": 6.729766532642025e-05,
"loss": 0.1005,
"step": 2180
},
{
"epoch": 1.168,
"grad_norm": 0.7602219145558438,
"learning_rate": 6.70353875971976e-05,
"loss": 0.074,
"step": 2190
},
{
"epoch": 1.1733333333333333,
"grad_norm": 0.3749850538704279,
"learning_rate": 6.677257848751277e-05,
"loss": 0.104,
"step": 2200
},
{
"epoch": 1.1786666666666668,
"grad_norm": 0.29487217368143226,
"learning_rate": 6.650924619510269e-05,
"loss": 0.0827,
"step": 2210
},
{
"epoch": 1.184,
"grad_norm": 0.589501149527065,
"learning_rate": 6.624539893402382e-05,
"loss": 0.0811,
"step": 2220
},
{
"epoch": 1.1893333333333334,
"grad_norm": 0.3582515462249089,
"learning_rate": 6.59810449343959e-05,
"loss": 0.1256,
"step": 2230
},
{
"epoch": 1.1946666666666665,
"grad_norm": 0.4908746582863155,
"learning_rate": 6.57161924421452e-05,
"loss": 0.0661,
"step": 2240
},
{
"epoch": 1.2,
"grad_norm": 0.14304137319582716,
"learning_rate": 6.545084971874738e-05,
"loss": 0.0873,
"step": 2250
},
{
"epoch": 1.2053333333333334,
"grad_norm": 0.3790267153262242,
"learning_rate": 6.518502504096971e-05,
"loss": 0.0696,
"step": 2260
},
{
"epoch": 1.2106666666666666,
"grad_norm": 0.45520542595416097,
"learning_rate": 6.491872670061302e-05,
"loss": 0.0911,
"step": 2270
},
{
"epoch": 1.216,
"grad_norm": 0.27211113914935425,
"learning_rate": 6.465196300425287e-05,
"loss": 0.0806,
"step": 2280
},
{
"epoch": 1.2213333333333334,
"grad_norm": 0.42486977142297205,
"learning_rate": 6.438474227298064e-05,
"loss": 0.0875,
"step": 2290
},
{
"epoch": 1.2266666666666666,
"grad_norm": 0.20325507793744182,
"learning_rate": 6.411707284214384e-05,
"loss": 0.0797,
"step": 2300
},
{
"epoch": 1.232,
"grad_norm": 0.2528543234113553,
"learning_rate": 6.384896306108612e-05,
"loss": 0.0777,
"step": 2310
},
{
"epoch": 1.2373333333333334,
"grad_norm": 0.17659437102775696,
"learning_rate": 6.358042129288694e-05,
"loss": 0.0878,
"step": 2320
},
{
"epoch": 1.2426666666666666,
"grad_norm": 0.4378309885022583,
"learning_rate": 6.331145591410057e-05,
"loss": 0.0703,
"step": 2330
},
{
"epoch": 1.248,
"grad_norm": 0.2878798809103319,
"learning_rate": 6.304207531449486e-05,
"loss": 0.0562,
"step": 2340
},
{
"epoch": 1.2533333333333334,
"grad_norm": 0.622720876199079,
"learning_rate": 6.277228789678953e-05,
"loss": 0.0733,
"step": 2350
},
{
"epoch": 1.2586666666666666,
"grad_norm": 0.30345435583889435,
"learning_rate": 6.250210207639411e-05,
"loss": 0.0925,
"step": 2360
},
{
"epoch": 1.264,
"grad_norm": 0.3040340623092671,
"learning_rate": 6.223152628114537e-05,
"loss": 0.0914,
"step": 2370
},
{
"epoch": 1.2693333333333334,
"grad_norm": 0.7540684317257884,
"learning_rate": 6.196056895104448e-05,
"loss": 0.0545,
"step": 2380
},
{
"epoch": 1.2746666666666666,
"grad_norm": 0.2416397638780232,
"learning_rate": 6.168923853799369e-05,
"loss": 0.0992,
"step": 2390
},
{
"epoch": 1.28,
"grad_norm": 0.2701416856707187,
"learning_rate": 6.141754350553279e-05,
"loss": 0.0987,
"step": 2400
},
{
"epoch": 1.2853333333333334,
"grad_norm": 0.31530904590926867,
"learning_rate": 6.114549232857503e-05,
"loss": 0.0821,
"step": 2410
},
{
"epoch": 1.2906666666666666,
"grad_norm": 0.3025708573699948,
"learning_rate": 6.0873093493142744e-05,
"loss": 0.0684,
"step": 2420
},
{
"epoch": 1.296,
"grad_norm": 0.20030611544884916,
"learning_rate": 6.0600355496102745e-05,
"loss": 0.0858,
"step": 2430
},
{
"epoch": 1.3013333333333335,
"grad_norm": 0.2898974220746758,
"learning_rate": 6.032728684490118e-05,
"loss": 0.1062,
"step": 2440
},
{
"epoch": 1.3066666666666666,
"grad_norm": 0.5731514111925414,
"learning_rate": 6.005389605729824e-05,
"loss": 0.0707,
"step": 2450
},
{
"epoch": 1.312,
"grad_norm": 0.2945295147968901,
"learning_rate": 5.9780191661102415e-05,
"loss": 0.0821,
"step": 2460
},
{
"epoch": 1.3173333333333335,
"grad_norm": 0.3188567586567806,
"learning_rate": 5.950618219390451e-05,
"loss": 0.0658,
"step": 2470
},
{
"epoch": 1.3226666666666667,
"grad_norm": 0.38516931134277715,
"learning_rate": 5.923187620281135e-05,
"loss": 0.0901,
"step": 2480
},
{
"epoch": 1.328,
"grad_norm": 0.2936840523914936,
"learning_rate": 5.8957282244179124e-05,
"loss": 0.0865,
"step": 2490
},
{
"epoch": 1.3333333333333333,
"grad_norm": 0.3148633249416305,
"learning_rate": 5.868240888334653e-05,
"loss": 0.0787,
"step": 2500
},
{
"epoch": 1.3386666666666667,
"grad_norm": 0.41010777430448553,
"learning_rate": 5.840726469436758e-05,
"loss": 0.1032,
"step": 2510
},
{
"epoch": 1.3439999999999999,
"grad_norm": 0.5189662418760232,
"learning_rate": 5.813185825974419e-05,
"loss": 0.0646,
"step": 2520
},
{
"epoch": 1.3493333333333333,
"grad_norm": 0.40047511027193056,
"learning_rate": 5.7856198170158394e-05,
"loss": 0.0779,
"step": 2530
},
{
"epoch": 1.3546666666666667,
"grad_norm": 0.40767498139938485,
"learning_rate": 5.758029302420446e-05,
"loss": 0.0818,
"step": 2540
},
{
"epoch": 1.3599999999999999,
"grad_norm": 0.31390992193854356,
"learning_rate": 5.730415142812059e-05,
"loss": 0.1287,
"step": 2550
},
{
"epoch": 1.3653333333333333,
"grad_norm": 0.39910106081363045,
"learning_rate": 5.7027781995520545e-05,
"loss": 0.1025,
"step": 2560
},
{
"epoch": 1.3706666666666667,
"grad_norm": 0.34396756245996873,
"learning_rate": 5.6751193347124965e-05,
"loss": 0.0908,
"step": 2570
},
{
"epoch": 1.376,
"grad_norm": 0.4234762361527916,
"learning_rate": 5.6474394110492344e-05,
"loss": 0.0943,
"step": 2580
},
{
"epoch": 1.3813333333333333,
"grad_norm": 0.35272070628168983,
"learning_rate": 5.619739291975009e-05,
"loss": 0.0916,
"step": 2590
},
{
"epoch": 1.3866666666666667,
"grad_norm": 0.28890898733983106,
"learning_rate": 5.5920198415325064e-05,
"loss": 0.0909,
"step": 2600
},
{
"epoch": 1.392,
"grad_norm": 0.2965196072655647,
"learning_rate": 5.564281924367408e-05,
"loss": 0.0806,
"step": 2610
},
{
"epoch": 1.3973333333333333,
"grad_norm": 0.13381097239370168,
"learning_rate": 5.5365264057014335e-05,
"loss": 0.0869,
"step": 2620
},
{
"epoch": 1.4026666666666667,
"grad_norm": 0.3704804003627925,
"learning_rate": 5.508754151305332e-05,
"loss": 0.1066,
"step": 2630
},
{
"epoch": 1.408,
"grad_norm": 0.26763992563336647,
"learning_rate": 5.480966027471889e-05,
"loss": 0.094,
"step": 2640
},
{
"epoch": 1.4133333333333333,
"grad_norm": 0.44739338728189787,
"learning_rate": 5.453162900988902e-05,
"loss": 0.0793,
"step": 2650
},
{
"epoch": 1.4186666666666667,
"grad_norm": 0.4590815685031545,
"learning_rate": 5.4253456391121405e-05,
"loss": 0.0856,
"step": 2660
},
{
"epoch": 1.424,
"grad_norm": 0.30114444493564724,
"learning_rate": 5.3975151095382995e-05,
"loss": 0.0687,
"step": 2670
},
{
"epoch": 1.4293333333333333,
"grad_norm": 0.3552725988648273,
"learning_rate": 5.369672180377926e-05,
"loss": 0.0791,
"step": 2680
},
{
"epoch": 1.4346666666666668,
"grad_norm": 0.18915400436946017,
"learning_rate": 5.3418177201283434e-05,
"loss": 0.0806,
"step": 2690
},
{
"epoch": 1.44,
"grad_norm": 0.5359478488110042,
"learning_rate": 5.313952597646568e-05,
"loss": 0.1072,
"step": 2700
},
{
"epoch": 1.4453333333333334,
"grad_norm": 0.38516717080686685,
"learning_rate": 5.286077682122191e-05,
"loss": 0.0862,
"step": 2710
},
{
"epoch": 1.4506666666666668,
"grad_norm": 0.35806535990815996,
"learning_rate": 5.258193843050283e-05,
"loss": 0.0752,
"step": 2720
},
{
"epoch": 1.456,
"grad_norm": 0.2860276681519146,
"learning_rate": 5.230301950204262e-05,
"loss": 0.0773,
"step": 2730
},
{
"epoch": 1.4613333333333334,
"grad_norm": 0.20402004235603322,
"learning_rate": 5.202402873608763e-05,
"loss": 0.1079,
"step": 2740
},
{
"epoch": 1.4666666666666668,
"grad_norm": 0.40428588805772253,
"learning_rate": 5.174497483512506e-05,
"loss": 0.1041,
"step": 2750
},
{
"epoch": 1.472,
"grad_norm": 0.32606524326477176,
"learning_rate": 5.1465866503611426e-05,
"loss": 0.0782,
"step": 2760
},
{
"epoch": 1.4773333333333334,
"grad_norm": 0.3040139309828935,
"learning_rate": 5.11867124477011e-05,
"loss": 0.0912,
"step": 2770
},
{
"epoch": 1.4826666666666668,
"grad_norm": 0.658823162263067,
"learning_rate": 5.090752137497474e-05,
"loss": 0.0871,
"step": 2780
},
{
"epoch": 1.488,
"grad_norm": 0.33742994558542017,
"learning_rate": 5.062830199416764e-05,
"loss": 0.1148,
"step": 2790
},
{
"epoch": 1.4933333333333334,
"grad_norm": 0.35948594248962984,
"learning_rate": 5.034906301489808e-05,
"loss": 0.0969,
"step": 2800
},
{
"epoch": 1.4986666666666666,
"grad_norm": 0.3021664680700608,
"learning_rate": 5.006981314739573e-05,
"loss": 0.0646,
"step": 2810
},
{
"epoch": 1.504,
"grad_norm": 1.2787569861693897,
"learning_rate": 4.979056110222981e-05,
"loss": 0.087,
"step": 2820
},
{
"epoch": 1.5093333333333332,
"grad_norm": 0.2620079864701764,
"learning_rate": 4.951131559003756e-05,
"loss": 0.0931,
"step": 2830
},
{
"epoch": 1.5146666666666668,
"grad_norm": 0.2539639246492767,
"learning_rate": 4.9232085321252354e-05,
"loss": 0.0879,
"step": 2840
},
{
"epoch": 1.52,
"grad_norm": 0.31496954999876287,
"learning_rate": 4.895287900583216e-05,
"loss": 0.068,
"step": 2850
},
{
"epoch": 1.5253333333333332,
"grad_norm": 0.13219937949465285,
"learning_rate": 4.8673705352987694e-05,
"loss": 0.0627,
"step": 2860
},
{
"epoch": 1.5306666666666666,
"grad_norm": 0.4150758140257884,
"learning_rate": 4.839457307091093e-05,
"loss": 0.0692,
"step": 2870
},
{
"epoch": 1.536,
"grad_norm": 0.3064221339675516,
"learning_rate": 4.811549086650327e-05,
"loss": 0.093,
"step": 2880
},
{
"epoch": 1.5413333333333332,
"grad_norm": 0.28833606796493827,
"learning_rate": 4.783646744510416e-05,
"loss": 0.0721,
"step": 2890
},
{
"epoch": 1.5466666666666666,
"grad_norm": 0.24958747097065986,
"learning_rate": 4.755751151021934e-05,
"loss": 0.1079,
"step": 2900
},
{
"epoch": 1.552,
"grad_norm": 0.36912223553393253,
"learning_rate": 4.7278631763249554e-05,
"loss": 0.0583,
"step": 2910
},
{
"epoch": 1.5573333333333332,
"grad_norm": 0.29746654577673204,
"learning_rate": 4.699983690321898e-05,
"loss": 0.0755,
"step": 2920
},
{
"epoch": 1.5626666666666666,
"grad_norm": 0.3679147147948016,
"learning_rate": 4.672113562650394e-05,
"loss": 0.0714,
"step": 2930
},
{
"epoch": 1.568,
"grad_norm": 0.4204474784538397,
"learning_rate": 4.6442536626561675e-05,
"loss": 0.097,
"step": 2940
},
{
"epoch": 1.5733333333333333,
"grad_norm": 0.19070962744045192,
"learning_rate": 4.616404859365907e-05,
"loss": 0.074,
"step": 2950
},
{
"epoch": 1.5786666666666667,
"grad_norm": 0.43016277329321917,
"learning_rate": 4.588568021460172e-05,
"loss": 0.0995,
"step": 2960
},
{
"epoch": 1.584,
"grad_norm": 0.2765334715744165,
"learning_rate": 4.560744017246284e-05,
"loss": 0.0808,
"step": 2970
},
{
"epoch": 1.5893333333333333,
"grad_norm": 0.23336470867240178,
"learning_rate": 4.532933714631248e-05,
"loss": 0.0773,
"step": 2980
},
{
"epoch": 1.5946666666666667,
"grad_norm": 0.36940825846677594,
"learning_rate": 4.505137981094675e-05,
"loss": 0.0743,
"step": 2990
},
{
"epoch": 1.6,
"grad_norm": 0.36744000774980046,
"learning_rate": 4.477357683661734e-05,
"loss": 0.0873,
"step": 3000
},
{
"epoch": 1.6053333333333333,
"grad_norm": 0.39795613399145335,
"learning_rate": 4.44959368887609e-05,
"loss": 0.0862,
"step": 3010
},
{
"epoch": 1.6106666666666667,
"grad_norm": 0.2694959052713876,
"learning_rate": 4.421846862772893e-05,
"loss": 0.0748,
"step": 3020
},
{
"epoch": 1.616,
"grad_norm": 0.9275977295098791,
"learning_rate": 4.394118070851749e-05,
"loss": 0.0742,
"step": 3030
},
{
"epoch": 1.6213333333333333,
"grad_norm": 0.4586127053073728,
"learning_rate": 4.366408178049728e-05,
"loss": 0.0958,
"step": 3040
},
{
"epoch": 1.6266666666666667,
"grad_norm": 0.3805484083498133,
"learning_rate": 4.3387180487143876e-05,
"loss": 0.0704,
"step": 3050
},
{
"epoch": 1.6320000000000001,
"grad_norm": 0.5307411679037863,
"learning_rate": 4.31104854657681e-05,
"loss": 0.0844,
"step": 3060
},
{
"epoch": 1.6373333333333333,
"grad_norm": 0.29245846705730816,
"learning_rate": 4.283400534724653e-05,
"loss": 0.085,
"step": 3070
},
{
"epoch": 1.6426666666666667,
"grad_norm": 0.3521296557997997,
"learning_rate": 4.255774875575239e-05,
"loss": 0.069,
"step": 3080
},
{
"epoch": 1.6480000000000001,
"grad_norm": 0.6143953116038394,
"learning_rate": 4.228172430848644e-05,
"loss": 0.112,
"step": 3090
},
{
"epoch": 1.6533333333333333,
"grad_norm": 0.31924940394339796,
"learning_rate": 4.2005940615408264e-05,
"loss": 0.0882,
"step": 3100
},
{
"epoch": 1.6586666666666665,
"grad_norm": 2.2957040830886735,
"learning_rate": 4.1730406278967624e-05,
"loss": 0.1043,
"step": 3110
},
{
"epoch": 1.6640000000000001,
"grad_norm": 0.33385380213973975,
"learning_rate": 4.1455129893836174e-05,
"loss": 0.091,
"step": 3120
},
{
"epoch": 1.6693333333333333,
"grad_norm": 0.20727111460146536,
"learning_rate": 4.118012004663939e-05,
"loss": 0.0675,
"step": 3130
},
{
"epoch": 1.6746666666666665,
"grad_norm": 0.21465641715317174,
"learning_rate": 4.0905385315688667e-05,
"loss": 0.0772,
"step": 3140
},
{
"epoch": 1.6800000000000002,
"grad_norm": 0.1881962738877192,
"learning_rate": 4.063093427071376e-05,
"loss": 0.0945,
"step": 3150
},
{
"epoch": 1.6853333333333333,
"grad_norm": 0.14265854119617788,
"learning_rate": 4.0356775472595546e-05,
"loss": 0.0773,
"step": 3160
},
{
"epoch": 1.6906666666666665,
"grad_norm": 0.31303445615610687,
"learning_rate": 4.008291747309884e-05,
"loss": 0.0786,
"step": 3170
},
{
"epoch": 1.696,
"grad_norm": 0.35208500817933025,
"learning_rate": 3.9809368814605766e-05,
"loss": 0.0753,
"step": 3180
},
{
"epoch": 1.7013333333333334,
"grad_norm": 0.087809683555692,
"learning_rate": 3.9536138029849244e-05,
"loss": 0.0929,
"step": 3190
},
{
"epoch": 1.7066666666666666,
"grad_norm": 0.26242887560409056,
"learning_rate": 3.926323364164684e-05,
"loss": 0.0884,
"step": 3200
},
{
"epoch": 1.712,
"grad_norm": 0.4173368634919108,
"learning_rate": 3.899066416263493e-05,
"loss": 0.082,
"step": 3210
},
{
"epoch": 1.7173333333333334,
"grad_norm": 0.2891027856531508,
"learning_rate": 3.871843809500313e-05,
"loss": 0.0655,
"step": 3220
},
{
"epoch": 1.7226666666666666,
"grad_norm": 0.5673345100957172,
"learning_rate": 3.844656393022912e-05,
"loss": 0.0914,
"step": 3230
},
{
"epoch": 1.728,
"grad_norm": 1.4531030851514897,
"learning_rate": 3.817505014881378e-05,
"loss": 0.0817,
"step": 3240
},
{
"epoch": 1.7333333333333334,
"grad_norm": 0.2855965535271414,
"learning_rate": 3.790390522001662e-05,
"loss": 0.0617,
"step": 3250
},
{
"epoch": 1.7386666666666666,
"grad_norm": 0.3666287134774054,
"learning_rate": 3.7633137601591644e-05,
"loss": 0.0687,
"step": 3260
},
{
"epoch": 1.744,
"grad_norm": 0.4762680602049916,
"learning_rate": 3.736275573952354e-05,
"loss": 0.0805,
"step": 3270
},
{
"epoch": 1.7493333333333334,
"grad_norm": 0.512614776546811,
"learning_rate": 3.7092768067764124e-05,
"loss": 0.0712,
"step": 3280
},
{
"epoch": 1.7546666666666666,
"grad_norm": 0.29361082550236245,
"learning_rate": 3.682318300796938e-05,
"loss": 0.0848,
"step": 3290
},
{
"epoch": 1.76,
"grad_norm": 0.3709245817859311,
"learning_rate": 3.655400896923672e-05,
"loss": 0.0766,
"step": 3300
},
{
"epoch": 1.7653333333333334,
"grad_norm": 0.2884559512019434,
"learning_rate": 3.6285254347842676e-05,
"loss": 0.0781,
"step": 3310
},
{
"epoch": 1.7706666666666666,
"grad_norm": 0.520265074969793,
"learning_rate": 3.601692752698102e-05,
"loss": 0.09,
"step": 3320
},
{
"epoch": 1.776,
"grad_norm": 1.0858833430543302,
"learning_rate": 3.5749036876501194e-05,
"loss": 0.1087,
"step": 3330
},
{
"epoch": 1.7813333333333334,
"grad_norm": 0.31843903671877066,
"learning_rate": 3.5481590752647383e-05,
"loss": 0.0828,
"step": 3340
},
{
"epoch": 1.7866666666666666,
"grad_norm": 0.8203856161105338,
"learning_rate": 3.5214597497797684e-05,
"loss": 0.0613,
"step": 3350
},
{
"epoch": 1.792,
"grad_norm": 0.23627368771852916,
"learning_rate": 3.494806544020398e-05,
"loss": 0.0744,
"step": 3360
},
{
"epoch": 1.7973333333333334,
"grad_norm": 0.4880356488115272,
"learning_rate": 3.46820028937322e-05,
"loss": 0.0872,
"step": 3370
},
{
"epoch": 1.8026666666666666,
"grad_norm": 0.20938676476329207,
"learning_rate": 3.441641815760291e-05,
"loss": 0.0846,
"step": 3380
},
{
"epoch": 1.808,
"grad_norm": 0.32636541501646193,
"learning_rate": 3.4151319516132416e-05,
"loss": 0.0913,
"step": 3390
},
{
"epoch": 1.8133333333333335,
"grad_norm": 0.3275073807856349,
"learning_rate": 3.388671523847445e-05,
"loss": 0.0928,
"step": 3400
},
{
"epoch": 1.8186666666666667,
"grad_norm": 0.631442858644952,
"learning_rate": 3.362261357836216e-05,
"loss": 0.0806,
"step": 3410
},
{
"epoch": 1.8239999999999998,
"grad_norm": 0.3332441946360375,
"learning_rate": 3.335902277385067e-05,
"loss": 0.069,
"step": 3420
},
{
"epoch": 1.8293333333333335,
"grad_norm": 0.816089894444356,
"learning_rate": 3.309595104706015e-05,
"loss": 0.0645,
"step": 3430
},
{
"epoch": 1.8346666666666667,
"grad_norm": 0.6100400823625405,
"learning_rate": 3.2833406603919244e-05,
"loss": 0.0969,
"step": 3440
},
{
"epoch": 1.8399999999999999,
"grad_norm": 0.45010875761508756,
"learning_rate": 3.257139763390925e-05,
"loss": 0.0825,
"step": 3450
},
{
"epoch": 1.8453333333333335,
"grad_norm": 0.5280438310609924,
"learning_rate": 3.230993230980853e-05,
"loss": 0.082,
"step": 3460
},
{
"epoch": 1.8506666666666667,
"grad_norm": 0.2508632107866348,
"learning_rate": 3.204901878743769e-05,
"loss": 0.0712,
"step": 3470
},
{
"epoch": 1.8559999999999999,
"grad_norm": 0.08560778622010873,
"learning_rate": 3.178866520540509e-05,
"loss": 0.0911,
"step": 3480
},
{
"epoch": 1.8613333333333333,
"grad_norm": 2.2157984641276,
"learning_rate": 3.152887968485303e-05,
"loss": 0.1325,
"step": 3490
},
{
"epoch": 1.8666666666666667,
"grad_norm": 0.45503106463686976,
"learning_rate": 3.12696703292044e-05,
"loss": 0.0815,
"step": 3500
},
{
"epoch": 1.8719999999999999,
"grad_norm": 0.4137433128045092,
"learning_rate": 3.101104522390995e-05,
"loss": 0.1141,
"step": 3510
},
{
"epoch": 1.8773333333333333,
"grad_norm": 0.2083545237438405,
"learning_rate": 3.075301243619603e-05,
"loss": 0.0589,
"step": 3520
},
{
"epoch": 1.8826666666666667,
"grad_norm": 0.5380271507267834,
"learning_rate": 3.049558001481302e-05,
"loss": 0.0988,
"step": 3530
},
{
"epoch": 1.888,
"grad_norm": 0.2714085551542505,
"learning_rate": 3.023875598978419e-05,
"loss": 0.0731,
"step": 3540
},
{
"epoch": 1.8933333333333333,
"grad_norm": 0.38180901105647147,
"learning_rate": 2.9982548372155263e-05,
"loss": 0.0945,
"step": 3550
},
{
"epoch": 1.8986666666666667,
"grad_norm": 0.5186655998690327,
"learning_rate": 2.972696515374455e-05,
"loss": 0.0711,
"step": 3560
},
{
"epoch": 1.904,
"grad_norm": 0.39082254535327154,
"learning_rate": 2.9472014306893603e-05,
"loss": 0.0836,
"step": 3570
},
{
"epoch": 1.9093333333333333,
"grad_norm": 0.7144072336484902,
"learning_rate": 2.9217703784218608e-05,
"loss": 0.1095,
"step": 3580
},
{
"epoch": 1.9146666666666667,
"grad_norm": 0.25797549378170476,
"learning_rate": 2.896404151836227e-05,
"loss": 0.0862,
"step": 3590
},
{
"epoch": 1.92,
"grad_norm": 0.332760445060726,
"learning_rate": 2.8711035421746367e-05,
"loss": 0.0963,
"step": 3600
},
{
"epoch": 1.9253333333333333,
"grad_norm": 0.1432031060284195,
"learning_rate": 2.8458693386325e-05,
"loss": 0.0767,
"step": 3610
},
{
"epoch": 1.9306666666666668,
"grad_norm": 0.2568504489320059,
"learning_rate": 2.8207023283338303e-05,
"loss": 0.0647,
"step": 3620
},
{
"epoch": 1.936,
"grad_norm": 0.3891494253523245,
"learning_rate": 2.795603296306708e-05,
"loss": 0.0773,
"step": 3630
},
{
"epoch": 1.9413333333333334,
"grad_norm": 1.2638058810575559,
"learning_rate": 2.7705730254587804e-05,
"loss": 0.0828,
"step": 3640
},
{
"epoch": 1.9466666666666668,
"grad_norm": 0.13408156841533306,
"learning_rate": 2.7456122965528475e-05,
"loss": 0.092,
"step": 3650
},
{
"epoch": 1.952,
"grad_norm": 0.3557875161550246,
"learning_rate": 2.7207218881825014e-05,
"loss": 0.0809,
"step": 3660
},
{
"epoch": 1.9573333333333334,
"grad_norm": 0.552429505986478,
"learning_rate": 2.6959025767478463e-05,
"loss": 0.0726,
"step": 3670
},
{
"epoch": 1.9626666666666668,
"grad_norm": 0.2712688214704046,
"learning_rate": 2.6711551364312787e-05,
"loss": 0.0928,
"step": 3680
},
{
"epoch": 1.968,
"grad_norm": 0.7163888790050583,
"learning_rate": 2.6464803391733374e-05,
"loss": 0.0914,
"step": 3690
},
{
"epoch": 1.9733333333333334,
"grad_norm": 0.3657298267449904,
"learning_rate": 2.6218789546486234e-05,
"loss": 0.0898,
"step": 3700
},
{
"epoch": 1.9786666666666668,
"grad_norm": 0.2423909359881568,
"learning_rate": 2.5973517502417966e-05,
"loss": 0.0855,
"step": 3710
},
{
"epoch": 1.984,
"grad_norm": 0.26774214502073845,
"learning_rate": 2.5728994910236304e-05,
"loss": 0.0738,
"step": 3720
},
{
"epoch": 1.9893333333333332,
"grad_norm": 0.3274266667915832,
"learning_rate": 2.5485229397271565e-05,
"loss": 0.078,
"step": 3730
},
{
"epoch": 1.9946666666666668,
"grad_norm": 0.9746618466912024,
"learning_rate": 2.524222856723869e-05,
"loss": 0.1042,
"step": 3740
},
{
"epoch": 2.0,
"grad_norm": 0.3473879195422688,
"learning_rate": 2.500000000000001e-05,
"loss": 0.0808,
"step": 3750
},
{
"epoch": 2.005333333333333,
"grad_norm": 0.28432063156987675,
"learning_rate": 2.4758551251328922e-05,
"loss": 0.0568,
"step": 3760
},
{
"epoch": 2.010666666666667,
"grad_norm": 0.3175954605780835,
"learning_rate": 2.4517889852674113e-05,
"loss": 0.0538,
"step": 3770
},
{
"epoch": 2.016,
"grad_norm": 0.2769293996728869,
"learning_rate": 2.4278023310924673e-05,
"loss": 0.0579,
"step": 3780
},
{
"epoch": 2.021333333333333,
"grad_norm": 0.21038554174484056,
"learning_rate": 2.403895910817593e-05,
"loss": 0.0528,
"step": 3790
},
{
"epoch": 2.026666666666667,
"grad_norm": 0.307088185055706,
"learning_rate": 2.3800704701496053e-05,
"loss": 0.0722,
"step": 3800
},
{
"epoch": 2.032,
"grad_norm": 0.7038265831265162,
"learning_rate": 2.3563267522693415e-05,
"loss": 0.0585,
"step": 3810
},
{
"epoch": 2.037333333333333,
"grad_norm": 0.16750540038549258,
"learning_rate": 2.332665497808487e-05,
"loss": 0.0508,
"step": 3820
},
{
"epoch": 2.042666666666667,
"grad_norm": 0.24873996966708511,
"learning_rate": 2.3090874448264637e-05,
"loss": 0.0688,
"step": 3830
},
{
"epoch": 2.048,
"grad_norm": 0.30623455974876695,
"learning_rate": 2.2855933287874138e-05,
"loss": 0.0589,
"step": 3840
},
{
"epoch": 2.0533333333333332,
"grad_norm": 0.3675502542262602,
"learning_rate": 2.2621838825372493e-05,
"loss": 0.0761,
"step": 3850
},
{
"epoch": 2.058666666666667,
"grad_norm": 0.4128758471578055,
"learning_rate": 2.2388598362808073e-05,
"loss": 0.0546,
"step": 3860
},
{
"epoch": 2.064,
"grad_norm": 0.42084656028983447,
"learning_rate": 2.215621917559062e-05,
"loss": 0.0765,
"step": 3870
},
{
"epoch": 2.0693333333333332,
"grad_norm": 0.35834172875696185,
"learning_rate": 2.1924708512264282e-05,
"loss": 0.0753,
"step": 3880
},
{
"epoch": 2.074666666666667,
"grad_norm": 0.20745938996121496,
"learning_rate": 2.1694073594281662e-05,
"loss": 0.0699,
"step": 3890
},
{
"epoch": 2.08,
"grad_norm": 0.6659064762293622,
"learning_rate": 2.1464321615778422e-05,
"loss": 0.0391,
"step": 3900
},
{
"epoch": 2.0853333333333333,
"grad_norm": 0.3489088526651907,
"learning_rate": 2.1235459743348872e-05,
"loss": 0.056,
"step": 3910
},
{
"epoch": 2.0906666666666665,
"grad_norm": 0.25123219928957363,
"learning_rate": 2.100749511582254e-05,
"loss": 0.0628,
"step": 3920
},
{
"epoch": 2.096,
"grad_norm": 0.4298327043505954,
"learning_rate": 2.07804348440414e-05,
"loss": 0.0651,
"step": 3930
},
{
"epoch": 2.1013333333333333,
"grad_norm": 0.494978147540386,
"learning_rate": 2.0554286010638076e-05,
"loss": 0.0809,
"step": 3940
},
{
"epoch": 2.1066666666666665,
"grad_norm": 0.35935108240553637,
"learning_rate": 2.0329055669814934e-05,
"loss": 0.071,
"step": 3950
},
{
"epoch": 2.112,
"grad_norm": 1.6253445911001658,
"learning_rate": 2.0104750847124075e-05,
"loss": 0.0548,
"step": 3960
},
{
"epoch": 2.1173333333333333,
"grad_norm": 0.26735303287551454,
"learning_rate": 1.988137853924808e-05,
"loss": 0.0501,
"step": 3970
},
{
"epoch": 2.1226666666666665,
"grad_norm": 0.4955255919498363,
"learning_rate": 1.9658945713781883e-05,
"loss": 0.0515,
"step": 3980
},
{
"epoch": 2.128,
"grad_norm": 0.6299290321133086,
"learning_rate": 1.9437459309015427e-05,
"loss": 0.0715,
"step": 3990
},
{
"epoch": 2.1333333333333333,
"grad_norm": 0.35646419489378706,
"learning_rate": 1.9216926233717085e-05,
"loss": 0.0612,
"step": 4000
},
{
"epoch": 2.1386666666666665,
"grad_norm": 0.6263648457112565,
"learning_rate": 1.899735336691837e-05,
"loss": 0.0559,
"step": 4010
},
{
"epoch": 2.144,
"grad_norm": 0.5067295364494415,
"learning_rate": 1.8778747557699224e-05,
"loss": 0.0686,
"step": 4020
},
{
"epoch": 2.1493333333333333,
"grad_norm": 0.5718378577909072,
"learning_rate": 1.8561115624974375e-05,
"loss": 0.0686,
"step": 4030
},
{
"epoch": 2.1546666666666665,
"grad_norm": 0.38694087371051944,
"learning_rate": 1.834446435728072e-05,
"loss": 0.0615,
"step": 4040
},
{
"epoch": 2.16,
"grad_norm": 0.16203210377675364,
"learning_rate": 1.8128800512565513e-05,
"loss": 0.0558,
"step": 4050
},
{
"epoch": 2.1653333333333333,
"grad_norm": 0.3274298231556744,
"learning_rate": 1.7914130817975594e-05,
"loss": 0.0629,
"step": 4060
},
{
"epoch": 2.1706666666666665,
"grad_norm": 0.1660742427236572,
"learning_rate": 1.770046196964747e-05,
"loss": 0.0541,
"step": 4070
},
{
"epoch": 2.176,
"grad_norm": 0.32433668189025194,
"learning_rate": 1.7487800632498545e-05,
"loss": 0.0412,
"step": 4080
},
{
"epoch": 2.1813333333333333,
"grad_norm": 0.2329868999973562,
"learning_rate": 1.727615344001926e-05,
"loss": 0.0603,
"step": 4090
},
{
"epoch": 2.1866666666666665,
"grad_norm": 0.3041955929025176,
"learning_rate": 1.7065526994065973e-05,
"loss": 0.0518,
"step": 4100
},
{
"epoch": 2.192,
"grad_norm": 0.26409686535013704,
"learning_rate": 1.685592786465524e-05,
"loss": 0.0724,
"step": 4110
},
{
"epoch": 2.1973333333333334,
"grad_norm": 0.658887581950419,
"learning_rate": 1.6647362589758787e-05,
"loss": 0.0505,
"step": 4120
},
{
"epoch": 2.2026666666666666,
"grad_norm": 0.46231523957622495,
"learning_rate": 1.643983767509954e-05,
"loss": 0.0393,
"step": 4130
},
{
"epoch": 2.208,
"grad_norm": 0.38753161721963036,
"learning_rate": 1.6233359593948777e-05,
"loss": 0.0624,
"step": 4140
},
{
"epoch": 2.2133333333333334,
"grad_norm": 0.5440576231610327,
"learning_rate": 1.602793478692419e-05,
"loss": 0.0563,
"step": 4150
},
{
"epoch": 2.2186666666666666,
"grad_norm": 0.26442974637308586,
"learning_rate": 1.582356966178888e-05,
"loss": 0.0499,
"step": 4160
},
{
"epoch": 2.224,
"grad_norm": 0.414127192280253,
"learning_rate": 1.5620270593251635e-05,
"loss": 0.0658,
"step": 4170
},
{
"epoch": 2.2293333333333334,
"grad_norm": 0.19020947170086536,
"learning_rate": 1.5418043922768e-05,
"loss": 0.049,
"step": 4180
},
{
"epoch": 2.2346666666666666,
"grad_norm": 0.6665493040403534,
"learning_rate": 1.5216895958342458e-05,
"loss": 0.0557,
"step": 4190
},
{
"epoch": 2.24,
"grad_norm": 0.29018930567992196,
"learning_rate": 1.5016832974331724e-05,
"loss": 0.0615,
"step": 4200
},
{
"epoch": 2.2453333333333334,
"grad_norm": 0.30389760838584223,
"learning_rate": 1.4817861211248996e-05,
"loss": 0.0454,
"step": 4210
},
{
"epoch": 2.2506666666666666,
"grad_norm": 0.3766406940656373,
"learning_rate": 1.4619986875569247e-05,
"loss": 0.0633,
"step": 4220
},
{
"epoch": 2.2560000000000002,
"grad_norm": 0.6415075515189281,
"learning_rate": 1.4423216139535734e-05,
"loss": 0.0481,
"step": 4230
},
{
"epoch": 2.2613333333333334,
"grad_norm": 0.6637946584956483,
"learning_rate": 1.4227555140967402e-05,
"loss": 0.0634,
"step": 4240
},
{
"epoch": 2.2666666666666666,
"grad_norm": 0.3492754805668872,
"learning_rate": 1.4033009983067452e-05,
"loss": 0.0645,
"step": 4250
},
{
"epoch": 2.2720000000000002,
"grad_norm": 0.37699901987157247,
"learning_rate": 1.3839586734232906e-05,
"loss": 0.0655,
"step": 4260
},
{
"epoch": 2.2773333333333334,
"grad_norm": 0.34133329060586903,
"learning_rate": 1.3647291427865416e-05,
"loss": 0.0571,
"step": 4270
},
{
"epoch": 2.2826666666666666,
"grad_norm": 1.1788875508934733,
"learning_rate": 1.3456130062183003e-05,
"loss": 0.0625,
"step": 4280
},
{
"epoch": 2.288,
"grad_norm": 0.5191821144508469,
"learning_rate": 1.3266108600032929e-05,
"loss": 0.067,
"step": 4290
},
{
"epoch": 2.2933333333333334,
"grad_norm": 0.4879548663602921,
"learning_rate": 1.3077232968705805e-05,
"loss": 0.054,
"step": 4300
},
{
"epoch": 2.2986666666666666,
"grad_norm": 0.115523689811175,
"learning_rate": 1.2889509059750604e-05,
"loss": 0.0443,
"step": 4310
},
{
"epoch": 2.304,
"grad_norm": 0.7983656773943594,
"learning_rate": 1.2702942728790895e-05,
"loss": 0.0974,
"step": 4320
},
{
"epoch": 2.3093333333333335,
"grad_norm": 0.6083637645751251,
"learning_rate": 1.2517539795342248e-05,
"loss": 0.0598,
"step": 4330
},
{
"epoch": 2.3146666666666667,
"grad_norm": 1.2107979267797886,
"learning_rate": 1.2333306042630671e-05,
"loss": 0.0624,
"step": 4340
},
{
"epoch": 2.32,
"grad_norm": 0.5222721036882456,
"learning_rate": 1.2150247217412186e-05,
"loss": 0.0526,
"step": 4350
},
{
"epoch": 2.3253333333333335,
"grad_norm": 0.626929219188131,
"learning_rate": 1.1968369029793641e-05,
"loss": 0.0469,
"step": 4360
},
{
"epoch": 2.3306666666666667,
"grad_norm": 0.38304135928696675,
"learning_rate": 1.178767715305455e-05,
"loss": 0.0691,
"step": 4370
},
{
"epoch": 2.336,
"grad_norm": 0.29031307370858644,
"learning_rate": 1.160817722347014e-05,
"loss": 0.0747,
"step": 4380
},
{
"epoch": 2.3413333333333335,
"grad_norm": 0.5245901565616543,
"learning_rate": 1.1429874840135491e-05,
"loss": 0.0586,
"step": 4390
},
{
"epoch": 2.3466666666666667,
"grad_norm": 0.3635891295545752,
"learning_rate": 1.1252775564791024e-05,
"loss": 0.0527,
"step": 4400
},
{
"epoch": 2.352,
"grad_norm": 0.22051862569841724,
"learning_rate": 1.1076884921648834e-05,
"loss": 0.0598,
"step": 4410
},
{
"epoch": 2.3573333333333335,
"grad_norm": 0.5166259311307704,
"learning_rate": 1.0902208397220497e-05,
"loss": 0.0441,
"step": 4420
},
{
"epoch": 2.3626666666666667,
"grad_norm": 1.9477950871980625,
"learning_rate": 1.0728751440145906e-05,
"loss": 0.0553,
"step": 4430
},
{
"epoch": 2.368,
"grad_norm": 0.5326613486573235,
"learning_rate": 1.0556519461023301e-05,
"loss": 0.0399,
"step": 4440
},
{
"epoch": 2.3733333333333335,
"grad_norm": 0.5638567090415495,
"learning_rate": 1.0385517832240471e-05,
"loss": 0.0737,
"step": 4450
},
{
"epoch": 2.3786666666666667,
"grad_norm": 0.5647745191571978,
"learning_rate": 1.0215751887807228e-05,
"loss": 0.0735,
"step": 4460
},
{
"epoch": 2.384,
"grad_norm": 0.9930278443174743,
"learning_rate": 1.0047226923189024e-05,
"loss": 0.0769,
"step": 4470
},
{
"epoch": 2.389333333333333,
"grad_norm": 0.4743267402333513,
"learning_rate": 9.879948195141681e-06,
"loss": 0.0656,
"step": 4480
},
{
"epoch": 2.3946666666666667,
"grad_norm": 0.7749005855837098,
"learning_rate": 9.713920921547532e-06,
"loss": 0.068,
"step": 4490
},
{
"epoch": 2.4,
"grad_norm": 0.511407034632181,
"learning_rate": 9.549150281252633e-06,
"loss": 0.0552,
"step": 4500
},
{
"epoch": 2.405333333333333,
"grad_norm": 0.5903533539444025,
"learning_rate": 9.38564141390514e-06,
"loss": 0.0584,
"step": 4510
},
{
"epoch": 2.4106666666666667,
"grad_norm": 0.42910201710777607,
"learning_rate": 9.223399419795093e-06,
"loss": 0.0479,
"step": 4520
},
{
"epoch": 2.416,
"grad_norm": 0.0971004042837485,
"learning_rate": 9.06242935969528e-06,
"loss": 0.053,
"step": 4530
},
{
"epoch": 2.421333333333333,
"grad_norm": 0.45485117911988876,
"learning_rate": 8.902736254703348e-06,
"loss": 0.0641,
"step": 4540
},
{
"epoch": 2.4266666666666667,
"grad_norm": 2.2076761451275373,
"learning_rate": 8.744325086085248e-06,
"loss": 0.0661,
"step": 4550
},
{
"epoch": 2.432,
"grad_norm": 0.4622826862841789,
"learning_rate": 8.587200795119793e-06,
"loss": 0.0532,
"step": 4560
},
{
"epoch": 2.437333333333333,
"grad_norm": 0.16297952149426467,
"learning_rate": 8.431368282944584e-06,
"loss": 0.0663,
"step": 4570
},
{
"epoch": 2.4426666666666668,
"grad_norm": 1.0958630948492523,
"learning_rate": 8.276832410403051e-06,
"loss": 0.0625,
"step": 4580
},
{
"epoch": 2.448,
"grad_norm": 1.0365957801439403,
"learning_rate": 8.123597997892918e-06,
"loss": 0.073,
"step": 4590
},
{
"epoch": 2.453333333333333,
"grad_norm": 0.43600610855740984,
"learning_rate": 7.971669825215788e-06,
"loss": 0.0662,
"step": 4600
},
{
"epoch": 2.458666666666667,
"grad_norm": 1.0381908747129327,
"learning_rate": 7.82105263142806e-06,
"loss": 0.0592,
"step": 4610
},
{
"epoch": 2.464,
"grad_norm": 0.44420551686346144,
"learning_rate": 7.671751114693104e-06,
"loss": 0.0877,
"step": 4620
},
{
"epoch": 2.469333333333333,
"grad_norm": 0.49412781691872054,
"learning_rate": 7.523769932134739e-06,
"loss": 0.0604,
"step": 4630
},
{
"epoch": 2.474666666666667,
"grad_norm": 0.3582068805837128,
"learning_rate": 7.377113699691878e-06,
"loss": 0.0319,
"step": 4640
},
{
"epoch": 2.48,
"grad_norm": 0.48670663532399294,
"learning_rate": 7.2317869919746705e-06,
"loss": 0.0466,
"step": 4650
},
{
"epoch": 2.485333333333333,
"grad_norm": 0.36892596799647553,
"learning_rate": 7.087794342121723e-06,
"loss": 0.0559,
"step": 4660
},
{
"epoch": 2.490666666666667,
"grad_norm": 0.43139777058449874,
"learning_rate": 6.945140241658687e-06,
"loss": 0.0558,
"step": 4670
},
{
"epoch": 2.496,
"grad_norm": 0.3997941474822688,
"learning_rate": 6.803829140358237e-06,
"loss": 0.0644,
"step": 4680
},
{
"epoch": 2.501333333333333,
"grad_norm": 0.4765978968393379,
"learning_rate": 6.663865446101192e-06,
"loss": 0.0429,
"step": 4690
},
{
"epoch": 2.506666666666667,
"grad_norm": 0.24005575735678056,
"learning_rate": 6.52525352473905e-06,
"loss": 0.0667,
"step": 4700
},
{
"epoch": 2.512,
"grad_norm": 0.19737661570270099,
"learning_rate": 6.3879976999578154e-06,
"loss": 0.078,
"step": 4710
},
{
"epoch": 2.517333333333333,
"grad_norm": 0.5946389291513183,
"learning_rate": 6.252102253143122e-06,
"loss": 0.0435,
"step": 4720
},
{
"epoch": 2.522666666666667,
"grad_norm": 0.4309418410900153,
"learning_rate": 6.117571423246654e-06,
"loss": 0.0553,
"step": 4730
},
{
"epoch": 2.528,
"grad_norm": 0.40276380840706144,
"learning_rate": 5.98440940665399e-06,
"loss": 0.0455,
"step": 4740
},
{
"epoch": 2.533333333333333,
"grad_norm": 0.4547355508444073,
"learning_rate": 5.852620357053651e-06,
"loss": 0.0763,
"step": 4750
},
{
"epoch": 2.538666666666667,
"grad_norm": 1.5559124737309162,
"learning_rate": 5.722208385307559e-06,
"loss": 0.0557,
"step": 4760
},
{
"epoch": 2.544,
"grad_norm": 2.2159656164151675,
"learning_rate": 5.593177559322777e-06,
"loss": 0.0636,
"step": 4770
},
{
"epoch": 2.5493333333333332,
"grad_norm": 0.5299907192920484,
"learning_rate": 5.46553190392467e-06,
"loss": 0.0559,
"step": 4780
},
{
"epoch": 2.554666666666667,
"grad_norm": 0.45851150868552254,
"learning_rate": 5.33927540073133e-06,
"loss": 0.0655,
"step": 4790
},
{
"epoch": 2.56,
"grad_norm": 1.2532179049795076,
"learning_rate": 5.214411988029355e-06,
"loss": 0.0856,
"step": 4800
},
{
"epoch": 2.5653333333333332,
"grad_norm": 0.24125087248153218,
"learning_rate": 5.090945560651073e-06,
"loss": 0.0588,
"step": 4810
},
{
"epoch": 2.570666666666667,
"grad_norm": 1.2543061347296967,
"learning_rate": 4.9688799698529855e-06,
"loss": 0.0473,
"step": 4820
},
{
"epoch": 2.576,
"grad_norm": 1.6372702549514104,
"learning_rate": 4.848219023195644e-06,
"loss": 0.054,
"step": 4830
},
{
"epoch": 2.5813333333333333,
"grad_norm": 0.5340347762606914,
"learning_rate": 4.728966484424912e-06,
"loss": 0.0727,
"step": 4840
},
{
"epoch": 2.586666666666667,
"grad_norm": 0.4615445129175439,
"learning_rate": 4.611126073354571e-06,
"loss": 0.0602,
"step": 4850
},
{
"epoch": 2.592,
"grad_norm": 0.18256213806877458,
"learning_rate": 4.494701465750217e-06,
"loss": 0.0496,
"step": 4860
},
{
"epoch": 2.5973333333333333,
"grad_norm": 0.3627248309284882,
"learning_rate": 4.379696293214696e-06,
"loss": 0.0466,
"step": 4870
},
{
"epoch": 2.602666666666667,
"grad_norm": 0.5116929381520542,
"learning_rate": 4.2661141430747505e-06,
"loss": 0.058,
"step": 4880
},
{
"epoch": 2.608,
"grad_norm": 1.961279089235483,
"learning_rate": 4.153958558269189e-06,
"loss": 0.0709,
"step": 4890
},
{
"epoch": 2.6133333333333333,
"grad_norm": 0.2652516865968403,
"learning_rate": 4.043233037238281e-06,
"loss": 0.0883,
"step": 4900
},
{
"epoch": 2.618666666666667,
"grad_norm": 0.3345369298272839,
"learning_rate": 3.933941033814736e-06,
"loss": 0.0727,
"step": 4910
},
{
"epoch": 2.624,
"grad_norm": 0.4069531312382299,
"learning_rate": 3.826085957115888e-06,
"loss": 0.0709,
"step": 4920
},
{
"epoch": 2.6293333333333333,
"grad_norm": 0.44074338269507607,
"learning_rate": 3.7196711714373945e-06,
"loss": 0.0546,
"step": 4930
},
{
"epoch": 2.634666666666667,
"grad_norm": 0.14345006613172576,
"learning_rate": 3.6146999961482853e-06,
"loss": 0.0583,
"step": 4940
},
{
"epoch": 2.64,
"grad_norm": 0.23138496414280116,
"learning_rate": 3.511175705587433e-06,
"loss": 0.0574,
"step": 4950
},
{
"epoch": 2.6453333333333333,
"grad_norm": 0.6328853073042866,
"learning_rate": 3.4091015289613783e-06,
"loss": 0.0535,
"step": 4960
},
{
"epoch": 2.6506666666666665,
"grad_norm": 0.5504082407933,
"learning_rate": 3.308480650243662e-06,
"loss": 0.0519,
"step": 4970
},
{
"epoch": 2.656,
"grad_norm": 0.19616443344237985,
"learning_rate": 3.2093162080754637e-06,
"loss": 0.0526,
"step": 4980
},
{
"epoch": 2.6613333333333333,
"grad_norm": 0.461215170098981,
"learning_rate": 3.1116112956677046e-06,
"loss": 0.0602,
"step": 4990
},
{
"epoch": 2.6666666666666665,
"grad_norm": 1.8846501798104753,
"learning_rate": 3.0153689607045845e-06,
"loss": 0.0601,
"step": 5000
},
{
"epoch": 2.672,
"grad_norm": 0.3424025958173587,
"learning_rate": 2.9205922052484958e-06,
"loss": 0.0743,
"step": 5010
},
{
"epoch": 2.6773333333333333,
"grad_norm": 0.6244804934379611,
"learning_rate": 2.8272839856463783e-06,
"loss": 0.0562,
"step": 5020
},
{
"epoch": 2.6826666666666665,
"grad_norm": 0.14850962993365097,
"learning_rate": 2.735447212437531e-06,
"loss": 0.0384,
"step": 5030
},
{
"epoch": 2.6879999999999997,
"grad_norm": 0.8456221585244574,
"learning_rate": 2.6450847502627884e-06,
"loss": 0.0485,
"step": 5040
},
{
"epoch": 2.6933333333333334,
"grad_norm": 0.4925323565284255,
"learning_rate": 2.5561994177751737e-06,
"loss": 0.0525,
"step": 5050
},
{
"epoch": 2.6986666666666665,
"grad_norm": 0.7245066061467218,
"learning_rate": 2.468793987551998e-06,
"loss": 0.0571,
"step": 5060
},
{
"epoch": 2.7039999999999997,
"grad_norm": 0.24479364163897654,
"learning_rate": 2.3828711860083674e-06,
"loss": 0.0528,
"step": 5070
},
{
"epoch": 2.7093333333333334,
"grad_norm": 0.37203599071553595,
"learning_rate": 2.2984336933121075e-06,
"loss": 0.0431,
"step": 5080
},
{
"epoch": 2.7146666666666666,
"grad_norm": 0.7710207759047643,
"learning_rate": 2.2154841433002062e-06,
"loss": 0.0523,
"step": 5090
},
{
"epoch": 2.7199999999999998,
"grad_norm": 2.2112180344646197,
"learning_rate": 2.134025123396638e-06,
"loss": 0.054,
"step": 5100
},
{
"epoch": 2.7253333333333334,
"grad_norm": 0.17811504841347045,
"learning_rate": 2.054059174531653e-06,
"loss": 0.0686,
"step": 5110
},
{
"epoch": 2.7306666666666666,
"grad_norm": 0.5305752665531933,
"learning_rate": 1.9755887910625105e-06,
"loss": 0.0542,
"step": 5120
},
{
"epoch": 2.7359999999999998,
"grad_norm": 1.045353213027242,
"learning_rate": 1.8986164206957035e-06,
"loss": 0.0591,
"step": 5130
},
{
"epoch": 2.7413333333333334,
"grad_norm": 0.6348686436214638,
"learning_rate": 1.8231444644105756e-06,
"loss": 0.076,
"step": 5140
},
{
"epoch": 2.7466666666666666,
"grad_norm": 0.7779615062887346,
"learning_rate": 1.7491752763844293e-06,
"loss": 0.0576,
"step": 5150
},
{
"epoch": 2.752,
"grad_norm": 0.47129435842784845,
"learning_rate": 1.6767111639191202e-06,
"loss": 0.0687,
"step": 5160
},
{
"epoch": 2.7573333333333334,
"grad_norm": 0.6039764330309144,
"learning_rate": 1.6057543873690683e-06,
"loss": 0.0573,
"step": 5170
},
{
"epoch": 2.7626666666666666,
"grad_norm": 0.3638890765880833,
"learning_rate": 1.5363071600707435e-06,
"loss": 0.0578,
"step": 5180
},
{
"epoch": 2.768,
"grad_norm": 0.8469588000808255,
"learning_rate": 1.4683716482736366e-06,
"loss": 0.0698,
"step": 5190
},
{
"epoch": 2.7733333333333334,
"grad_norm": 0.4234650111495255,
"learning_rate": 1.4019499710726913e-06,
"loss": 0.0594,
"step": 5200
},
{
"epoch": 2.7786666666666666,
"grad_norm": 0.19928827666209747,
"learning_rate": 1.3370442003421913e-06,
"loss": 0.0645,
"step": 5210
},
{
"epoch": 2.784,
"grad_norm": 0.7231990605502977,
"learning_rate": 1.2736563606711382e-06,
"loss": 0.1017,
"step": 5220
},
{
"epoch": 2.7893333333333334,
"grad_norm": 0.21894469123073132,
"learning_rate": 1.2117884293001258e-06,
"loss": 0.0622,
"step": 5230
},
{
"epoch": 2.7946666666666666,
"grad_norm": 0.20936829264221712,
"learning_rate": 1.1514423360595938e-06,
"loss": 0.0401,
"step": 5240
},
{
"epoch": 2.8,
"grad_norm": 1.4163044797463045,
"learning_rate": 1.0926199633097157e-06,
"loss": 0.0639,
"step": 5250
},
{
"epoch": 2.8053333333333335,
"grad_norm": 0.44692680466953544,
"learning_rate": 1.0353231458816337e-06,
"loss": 0.0525,
"step": 5260
},
{
"epoch": 2.8106666666666666,
"grad_norm": 0.4564041065218228,
"learning_rate": 9.795536710202169e-07,
"loss": 0.0647,
"step": 5270
},
{
"epoch": 2.816,
"grad_norm": 0.32168180370188015,
"learning_rate": 9.253132783283547e-07,
"loss": 0.0967,
"step": 5280
},
{
"epoch": 2.8213333333333335,
"grad_norm": 0.5640580315710545,
"learning_rate": 8.726036597126619e-07,
"loss": 0.049,
"step": 5290
},
{
"epoch": 2.8266666666666667,
"grad_norm": 0.5547215107583603,
"learning_rate": 8.214264593307098e-07,
"loss": 0.0496,
"step": 5300
},
{
"epoch": 2.832,
"grad_norm": 0.5883978301371552,
"learning_rate": 7.717832735397335e-07,
"loss": 0.0596,
"step": 5310
},
{
"epoch": 2.8373333333333335,
"grad_norm": 0.3344147832155162,
"learning_rate": 7.236756508468611e-07,
"loss": 0.0735,
"step": 5320
},
{
"epoch": 2.8426666666666667,
"grad_norm": 0.910638045051187,
"learning_rate": 6.771050918607913e-07,
"loss": 0.0389,
"step": 5330
},
{
"epoch": 2.848,
"grad_norm": 0.29075901850290997,
"learning_rate": 6.3207304924498e-07,
"loss": 0.0546,
"step": 5340
},
{
"epoch": 2.8533333333333335,
"grad_norm": 0.5411823284306373,
"learning_rate": 5.885809276723608e-07,
"loss": 0.0581,
"step": 5350
},
{
"epoch": 2.8586666666666667,
"grad_norm": 0.5813577267027392,
"learning_rate": 5.466300837814797e-07,
"loss": 0.0645,
"step": 5360
},
{
"epoch": 2.864,
"grad_norm": 0.5593223476254932,
"learning_rate": 5.062218261342122e-07,
"loss": 0.0559,
"step": 5370
},
{
"epoch": 2.8693333333333335,
"grad_norm": 0.26759185453987694,
"learning_rate": 4.673574151749571e-07,
"loss": 0.0425,
"step": 5380
},
{
"epoch": 2.8746666666666667,
"grad_norm": 1.3523520408428589,
"learning_rate": 4.300380631912737e-07,
"loss": 0.0542,
"step": 5390
},
{
"epoch": 2.88,
"grad_norm": 0.47767990104984714,
"learning_rate": 3.9426493427611177e-07,
"loss": 0.0616,
"step": 5400
},
{
"epoch": 2.8853333333333335,
"grad_norm": 0.2360454372832941,
"learning_rate": 3.600391442914741e-07,
"loss": 0.0676,
"step": 5410
},
{
"epoch": 2.8906666666666667,
"grad_norm": 0.32952120140551255,
"learning_rate": 3.2736176083362216e-07,
"loss": 0.0864,
"step": 5420
},
{
"epoch": 2.896,
"grad_norm": 0.33183342831190527,
"learning_rate": 2.962338031997691e-07,
"loss": 0.0438,
"step": 5430
},
{
"epoch": 2.9013333333333335,
"grad_norm": 0.2688036269173269,
"learning_rate": 2.666562423562946e-07,
"loss": 0.0572,
"step": 5440
},
{
"epoch": 2.9066666666666667,
"grad_norm": 0.8199146727952845,
"learning_rate": 2.386300009084408e-07,
"loss": 0.0508,
"step": 5450
},
{
"epoch": 2.912,
"grad_norm": 0.32763708341044534,
"learning_rate": 2.1215595307154667e-07,
"loss": 0.0557,
"step": 5460
},
{
"epoch": 2.9173333333333336,
"grad_norm": 0.5567473180263641,
"learning_rate": 1.872349246437699e-07,
"loss": 0.0435,
"step": 5470
},
{
"epoch": 2.9226666666666667,
"grad_norm": 0.14173431158043928,
"learning_rate": 1.6386769298034065e-07,
"loss": 0.0529,
"step": 5480
},
{
"epoch": 2.928,
"grad_norm": 0.48646244206332484,
"learning_rate": 1.420549869693033e-07,
"loss": 0.0563,
"step": 5490
},
{
"epoch": 2.9333333333333336,
"grad_norm": 0.16712907626863704,
"learning_rate": 1.2179748700879012e-07,
"loss": 0.057,
"step": 5500
},
{
"epoch": 2.9386666666666668,
"grad_norm": 0.7171661277653485,
"learning_rate": 1.0309582498577719e-07,
"loss": 0.0608,
"step": 5510
},
{
"epoch": 2.944,
"grad_norm": 0.6387695392786391,
"learning_rate": 8.595058425640013e-08,
"loss": 0.0755,
"step": 5520
},
{
"epoch": 2.9493333333333336,
"grad_norm": 0.7904478835880077,
"learning_rate": 7.036229962774089e-08,
"loss": 0.05,
"step": 5530
},
{
"epoch": 2.9546666666666668,
"grad_norm": 0.22945181555027688,
"learning_rate": 5.633145734114664e-08,
"loss": 0.0681,
"step": 5540
},
{
"epoch": 2.96,
"grad_norm": 0.24846540953180968,
"learning_rate": 4.385849505708084e-08,
"loss": 0.04,
"step": 5550
},
{
"epoch": 2.9653333333333336,
"grad_norm": 0.8418011776530022,
"learning_rate": 3.294380184143964e-08,
"loss": 0.0693,
"step": 5560
},
{
"epoch": 2.970666666666667,
"grad_norm": 0.38276908160892953,
"learning_rate": 2.358771815344496e-08,
"loss": 0.048,
"step": 5570
},
{
"epoch": 2.976,
"grad_norm": 0.2736627490173404,
"learning_rate": 1.5790535835003008e-08,
"loss": 0.039,
"step": 5580
},
{
"epoch": 2.981333333333333,
"grad_norm": 0.33739549368789956,
"learning_rate": 9.552498101611518e-09,
"loss": 0.0487,
"step": 5590
},
{
"epoch": 2.986666666666667,
"grad_norm": 0.3673566199344695,
"learning_rate": 4.873799534788059e-09,
"loss": 0.0642,
"step": 5600
},
{
"epoch": 2.992,
"grad_norm": 0.08486860544908555,
"learning_rate": 1.7545860759693445e-09,
"loss": 0.0772,
"step": 5610
},
{
"epoch": 2.997333333333333,
"grad_norm": 0.38876848007417136,
"learning_rate": 1.9495502197042214e-10,
"loss": 0.0518,
"step": 5620
},
{
"epoch": 3.0,
"step": 5625,
"total_flos": 676226370502656.0,
"train_loss": 0.08742177106274499,
"train_runtime": 51369.7181,
"train_samples_per_second": 0.876,
"train_steps_per_second": 0.11
}
],
"logging_steps": 10,
"max_steps": 5625,
"num_input_tokens_seen": 0,
"num_train_epochs": 3,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 676226370502656.0,
"train_batch_size": 1,
"trial_name": null,
"trial_params": null
}