{ "best_metric": null, "best_model_checkpoint": null, "epoch": 3.0, "eval_steps": 500, "global_step": 5625, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.005333333333333333, "grad_norm": 2.527519837926313, "learning_rate": 9.999922018143242e-05, "loss": 1.3169, "step": 10 }, { "epoch": 0.010666666666666666, "grad_norm": 1.2217500262985892, "learning_rate": 9.999688075005433e-05, "loss": 0.2259, "step": 20 }, { "epoch": 0.016, "grad_norm": 1.7063323546954015, "learning_rate": 9.999298177883903e-05, "loss": 0.1727, "step": 30 }, { "epoch": 0.021333333333333333, "grad_norm": 0.9595152122743656, "learning_rate": 9.998752338940612e-05, "loss": 0.1447, "step": 40 }, { "epoch": 0.02666666666666667, "grad_norm": 0.8063906234511967, "learning_rate": 9.998050575201771e-05, "loss": 0.1589, "step": 50 }, { "epoch": 0.032, "grad_norm": 0.7256544341994028, "learning_rate": 9.997192908557323e-05, "loss": 0.1349, "step": 60 }, { "epoch": 0.037333333333333336, "grad_norm": 1.2775691392850101, "learning_rate": 9.996179365760234e-05, "loss": 0.1611, "step": 70 }, { "epoch": 0.042666666666666665, "grad_norm": 0.891234339879045, "learning_rate": 9.995009978425691e-05, "loss": 0.095, "step": 80 }, { "epoch": 0.048, "grad_norm": 1.0014539762676233, "learning_rate": 9.993684783030088e-05, "loss": 0.1724, "step": 90 }, { "epoch": 0.05333333333333334, "grad_norm": 0.4613185282163861, "learning_rate": 9.992203820909906e-05, "loss": 0.1344, "step": 100 }, { "epoch": 0.058666666666666666, "grad_norm": 0.4936082534173558, "learning_rate": 9.990567138260413e-05, "loss": 0.139, "step": 110 }, { "epoch": 0.064, "grad_norm": 0.6281250625331747, "learning_rate": 9.988774786134234e-05, "loss": 0.1503, "step": 120 }, { "epoch": 0.06933333333333333, "grad_norm": 0.6609681982222656, "learning_rate": 9.986826820439743e-05, "loss": 0.1281, "step": 130 }, { "epoch": 0.07466666666666667, "grad_norm": 0.45073405661593613, "learning_rate": 9.984723301939337e-05, "loss": 0.1237, "step": 140 }, { "epoch": 0.08, "grad_norm": 0.4859563793971423, "learning_rate": 9.982464296247522e-05, "loss": 0.1143, "step": 150 }, { "epoch": 0.08533333333333333, "grad_norm": 1.0040414704401097, "learning_rate": 9.980049873828887e-05, "loss": 0.1388, "step": 160 }, { "epoch": 0.09066666666666667, "grad_norm": 1.3649467816333265, "learning_rate": 9.977480109995885e-05, "loss": 0.1316, "step": 170 }, { "epoch": 0.096, "grad_norm": 0.9375069639078025, "learning_rate": 9.974755084906502e-05, "loss": 0.1309, "step": 180 }, { "epoch": 0.10133333333333333, "grad_norm": 0.5272662827072222, "learning_rate": 9.97187488356174e-05, "loss": 0.1533, "step": 190 }, { "epoch": 0.10666666666666667, "grad_norm": 0.7567770578940919, "learning_rate": 9.968839595802982e-05, "loss": 0.1087, "step": 200 }, { "epoch": 0.112, "grad_norm": 0.5554393295304938, "learning_rate": 9.965649316309178e-05, "loss": 0.1251, "step": 210 }, { "epoch": 0.11733333333333333, "grad_norm": 0.267945653513535, "learning_rate": 9.962304144593893e-05, "loss": 0.139, "step": 220 }, { "epoch": 0.12266666666666666, "grad_norm": 0.621672423592168, "learning_rate": 9.958804185002209e-05, "loss": 0.1135, "step": 230 }, { "epoch": 0.128, "grad_norm": 1.4188468389916236, "learning_rate": 9.955149546707465e-05, "loss": 0.1108, "step": 240 }, { "epoch": 0.13333333333333333, "grad_norm": 0.7690315251363559, "learning_rate": 9.951340343707852e-05, "loss": 0.1072, "step": 250 }, { "epoch": 0.13866666666666666, "grad_norm": 0.4448856190362289, "learning_rate": 9.947376694822861e-05, "loss": 0.0958, "step": 260 }, { "epoch": 0.144, "grad_norm": 0.3171048968849009, "learning_rate": 9.94325872368957e-05, "loss": 0.1215, "step": 270 }, { "epoch": 0.14933333333333335, "grad_norm": 0.7032483915566803, "learning_rate": 9.938986558758795e-05, "loss": 0.1231, "step": 280 }, { "epoch": 0.15466666666666667, "grad_norm": 0.5440645749771874, "learning_rate": 9.934560333291076e-05, "loss": 0.1314, "step": 290 }, { "epoch": 0.16, "grad_norm": 0.3644263172558883, "learning_rate": 9.929980185352526e-05, "loss": 0.1159, "step": 300 }, { "epoch": 0.16533333333333333, "grad_norm": 0.6584219533049036, "learning_rate": 9.925246257810519e-05, "loss": 0.0992, "step": 310 }, { "epoch": 0.17066666666666666, "grad_norm": 0.6098867989857334, "learning_rate": 9.920358698329242e-05, "loss": 0.1082, "step": 320 }, { "epoch": 0.176, "grad_norm": 0.33262304059635894, "learning_rate": 9.915317659365077e-05, "loss": 0.0989, "step": 330 }, { "epoch": 0.18133333333333335, "grad_norm": 1.3865630370663775, "learning_rate": 9.91012329816186e-05, "loss": 0.1086, "step": 340 }, { "epoch": 0.18666666666666668, "grad_norm": 0.4898056395958746, "learning_rate": 9.904775776745958e-05, "loss": 0.094, "step": 350 }, { "epoch": 0.192, "grad_norm": 0.38662451034024775, "learning_rate": 9.899275261921234e-05, "loss": 0.1049, "step": 360 }, { "epoch": 0.19733333333333333, "grad_norm": 0.9174406692478881, "learning_rate": 9.893621925263832e-05, "loss": 0.0932, "step": 370 }, { "epoch": 0.20266666666666666, "grad_norm": 0.49949585319933887, "learning_rate": 9.887815943116827e-05, "loss": 0.1375, "step": 380 }, { "epoch": 0.208, "grad_norm": 0.5799440882608599, "learning_rate": 9.881857496584726e-05, "loss": 0.1369, "step": 390 }, { "epoch": 0.21333333333333335, "grad_norm": 0.2671641057655543, "learning_rate": 9.875746771527816e-05, "loss": 0.1262, "step": 400 }, { "epoch": 0.21866666666666668, "grad_norm": 0.771284531488365, "learning_rate": 9.869483958556375e-05, "loss": 0.1059, "step": 410 }, { "epoch": 0.224, "grad_norm": 0.5429595441040385, "learning_rate": 9.863069253024719e-05, "loss": 0.1039, "step": 420 }, { "epoch": 0.22933333333333333, "grad_norm": 0.7666811211976798, "learning_rate": 9.8565028550251e-05, "loss": 0.0927, "step": 430 }, { "epoch": 0.23466666666666666, "grad_norm": 0.39313244077517323, "learning_rate": 9.849784969381486e-05, "loss": 0.1034, "step": 440 }, { "epoch": 0.24, "grad_norm": 0.35614340978914794, "learning_rate": 9.842915805643155e-05, "loss": 0.1123, "step": 450 }, { "epoch": 0.24533333333333332, "grad_norm": 0.4242617271790788, "learning_rate": 9.835895578078165e-05, "loss": 0.1046, "step": 460 }, { "epoch": 0.25066666666666665, "grad_norm": 0.6236524465914113, "learning_rate": 9.828724505666664e-05, "loss": 0.1029, "step": 470 }, { "epoch": 0.256, "grad_norm": 0.22247428919605555, "learning_rate": 9.821402812094073e-05, "loss": 0.1158, "step": 480 }, { "epoch": 0.2613333333333333, "grad_norm": 0.6283722467794063, "learning_rate": 9.813930725744094e-05, "loss": 0.1519, "step": 490 }, { "epoch": 0.26666666666666666, "grad_norm": 0.44272267215409905, "learning_rate": 9.806308479691595e-05, "loss": 0.1008, "step": 500 }, { "epoch": 0.272, "grad_norm": 0.48371539367139976, "learning_rate": 9.798536311695334e-05, "loss": 0.0934, "step": 510 }, { "epoch": 0.2773333333333333, "grad_norm": 0.586013851777777, "learning_rate": 9.790614464190549e-05, "loss": 0.1281, "step": 520 }, { "epoch": 0.2826666666666667, "grad_norm": 0.2967578651324173, "learning_rate": 9.78254318428139e-05, "loss": 0.1304, "step": 530 }, { "epoch": 0.288, "grad_norm": 0.4049276594931381, "learning_rate": 9.774322723733216e-05, "loss": 0.1062, "step": 540 }, { "epoch": 0.29333333333333333, "grad_norm": 0.286856627209973, "learning_rate": 9.765953338964735e-05, "loss": 0.1134, "step": 550 }, { "epoch": 0.2986666666666667, "grad_norm": 0.2087126501500343, "learning_rate": 9.757435291040016e-05, "loss": 0.1043, "step": 560 }, { "epoch": 0.304, "grad_norm": 0.2791420695834158, "learning_rate": 9.748768845660334e-05, "loss": 0.1053, "step": 570 }, { "epoch": 0.30933333333333335, "grad_norm": 1.9684125174499263, "learning_rate": 9.739954273155891e-05, "loss": 0.1138, "step": 580 }, { "epoch": 0.31466666666666665, "grad_norm": 0.681459403334468, "learning_rate": 9.730991848477379e-05, "loss": 0.1032, "step": 590 }, { "epoch": 0.32, "grad_norm": 0.4786957443473249, "learning_rate": 9.721881851187406e-05, "loss": 0.0936, "step": 600 }, { "epoch": 0.3253333333333333, "grad_norm": 0.44957897135812, "learning_rate": 9.712624565451772e-05, "loss": 0.0888, "step": 610 }, { "epoch": 0.33066666666666666, "grad_norm": 0.24026162351393507, "learning_rate": 9.703220280030608e-05, "loss": 0.106, "step": 620 }, { "epoch": 0.336, "grad_norm": 0.32556520051413007, "learning_rate": 9.693669288269372e-05, "loss": 0.1165, "step": 630 }, { "epoch": 0.3413333333333333, "grad_norm": 0.2943672077441584, "learning_rate": 9.68397188808969e-05, "loss": 0.0988, "step": 640 }, { "epoch": 0.3466666666666667, "grad_norm": 0.8044529900995033, "learning_rate": 9.674128381980072e-05, "loss": 0.1449, "step": 650 }, { "epoch": 0.352, "grad_norm": 0.33481021770364683, "learning_rate": 9.664139076986473e-05, "loss": 0.1193, "step": 660 }, { "epoch": 0.35733333333333334, "grad_norm": 0.5027467655545239, "learning_rate": 9.654004284702711e-05, "loss": 0.089, "step": 670 }, { "epoch": 0.3626666666666667, "grad_norm": 0.5472848345738294, "learning_rate": 9.643724321260756e-05, "loss": 0.1619, "step": 680 }, { "epoch": 0.368, "grad_norm": 0.26692395643039374, "learning_rate": 9.63329950732086e-05, "loss": 0.1078, "step": 690 }, { "epoch": 0.37333333333333335, "grad_norm": 0.4010111324591282, "learning_rate": 9.622730168061567e-05, "loss": 0.0978, "step": 700 }, { "epoch": 0.37866666666666665, "grad_norm": 0.48164169168960175, "learning_rate": 9.612016633169551e-05, "loss": 0.1146, "step": 710 }, { "epoch": 0.384, "grad_norm": 0.2996078987983414, "learning_rate": 9.601159236829352e-05, "loss": 0.1078, "step": 720 }, { "epoch": 0.3893333333333333, "grad_norm": 1.0373192047967936, "learning_rate": 9.59015831771294e-05, "loss": 0.1156, "step": 730 }, { "epoch": 0.39466666666666667, "grad_norm": 0.40223660912362824, "learning_rate": 9.579014218969158e-05, "loss": 0.0982, "step": 740 }, { "epoch": 0.4, "grad_norm": 0.21815392621960197, "learning_rate": 9.567727288213005e-05, "loss": 0.1039, "step": 750 }, { "epoch": 0.4053333333333333, "grad_norm": 0.4080792877842143, "learning_rate": 9.556297877514812e-05, "loss": 0.1328, "step": 760 }, { "epoch": 0.4106666666666667, "grad_norm": 0.5388029930963009, "learning_rate": 9.544726343389244e-05, "loss": 0.096, "step": 770 }, { "epoch": 0.416, "grad_norm": 0.34087511712303464, "learning_rate": 9.533013046784189e-05, "loss": 0.1168, "step": 780 }, { "epoch": 0.42133333333333334, "grad_norm": 0.5699818709360815, "learning_rate": 9.521158353069494e-05, "loss": 0.1114, "step": 790 }, { "epoch": 0.4266666666666667, "grad_norm": 0.6031540208330821, "learning_rate": 9.50916263202557e-05, "loss": 0.1026, "step": 800 }, { "epoch": 0.432, "grad_norm": 0.5762572516661171, "learning_rate": 9.497026257831855e-05, "loss": 0.1092, "step": 810 }, { "epoch": 0.43733333333333335, "grad_norm": 0.3150411940705835, "learning_rate": 9.48474960905515e-05, "loss": 0.0952, "step": 820 }, { "epoch": 0.44266666666666665, "grad_norm": 0.41564573633210944, "learning_rate": 9.4723330686378e-05, "loss": 0.1267, "step": 830 }, { "epoch": 0.448, "grad_norm": 0.6459733326527741, "learning_rate": 9.459777023885755e-05, "loss": 0.1463, "step": 840 }, { "epoch": 0.4533333333333333, "grad_norm": 0.4544523329308658, "learning_rate": 9.447081866456489e-05, "loss": 0.1205, "step": 850 }, { "epoch": 0.45866666666666667, "grad_norm": 0.6314480656594348, "learning_rate": 9.43424799234678e-05, "loss": 0.1124, "step": 860 }, { "epoch": 0.464, "grad_norm": 0.9064983922849971, "learning_rate": 9.421275801880362e-05, "loss": 0.1264, "step": 870 }, { "epoch": 0.4693333333333333, "grad_norm": 0.34827052112884926, "learning_rate": 9.408165699695435e-05, "loss": 0.1405, "step": 880 }, { "epoch": 0.4746666666666667, "grad_norm": 0.7296914862034377, "learning_rate": 9.394918094732043e-05, "loss": 0.1045, "step": 890 }, { "epoch": 0.48, "grad_norm": 0.5691591905076876, "learning_rate": 9.381533400219318e-05, "loss": 0.1077, "step": 900 }, { "epoch": 0.48533333333333334, "grad_norm": 0.19686521078594849, "learning_rate": 9.368012033662594e-05, "loss": 0.0984, "step": 910 }, { "epoch": 0.49066666666666664, "grad_norm": 0.5861688203465645, "learning_rate": 9.354354416830377e-05, "loss": 0.1247, "step": 920 }, { "epoch": 0.496, "grad_norm": 0.3698896107522038, "learning_rate": 9.340560975741197e-05, "loss": 0.0954, "step": 930 }, { "epoch": 0.5013333333333333, "grad_norm": 0.4055428324426277, "learning_rate": 9.326632140650311e-05, "loss": 0.084, "step": 940 }, { "epoch": 0.5066666666666667, "grad_norm": 0.4912284452838202, "learning_rate": 9.312568346036288e-05, "loss": 0.0972, "step": 950 }, { "epoch": 0.512, "grad_norm": 1.98707414671174, "learning_rate": 9.298370030587456e-05, "loss": 0.1029, "step": 960 }, { "epoch": 0.5173333333333333, "grad_norm": 0.523111390361901, "learning_rate": 9.284037637188215e-05, "loss": 0.1153, "step": 970 }, { "epoch": 0.5226666666666666, "grad_norm": 0.4595031590409469, "learning_rate": 9.269571612905225e-05, "loss": 0.0967, "step": 980 }, { "epoch": 0.528, "grad_norm": 0.41694493527192783, "learning_rate": 9.254972408973461e-05, "loss": 0.0808, "step": 990 }, { "epoch": 0.5333333333333333, "grad_norm": 0.24448609202401553, "learning_rate": 9.24024048078213e-05, "loss": 0.0696, "step": 1000 }, { "epoch": 0.5386666666666666, "grad_norm": 0.7981995853878727, "learning_rate": 9.225376287860484e-05, "loss": 0.1464, "step": 1010 }, { "epoch": 0.544, "grad_norm": 0.36979735343675585, "learning_rate": 9.210380293863462e-05, "loss": 0.0991, "step": 1020 }, { "epoch": 0.5493333333333333, "grad_norm": 0.1815432344994382, "learning_rate": 9.19525296655725e-05, "loss": 0.0968, "step": 1030 }, { "epoch": 0.5546666666666666, "grad_norm": 0.511586422349771, "learning_rate": 9.179994777804677e-05, "loss": 0.1397, "step": 1040 }, { "epoch": 0.56, "grad_norm": 0.36983554709298194, "learning_rate": 9.164606203550497e-05, "loss": 0.0757, "step": 1050 }, { "epoch": 0.5653333333333334, "grad_norm": 0.5441496644962687, "learning_rate": 9.149087723806548e-05, "loss": 0.134, "step": 1060 }, { "epoch": 0.5706666666666667, "grad_norm": 0.27594480177214126, "learning_rate": 9.133439822636778e-05, "loss": 0.104, "step": 1070 }, { "epoch": 0.576, "grad_norm": 1.2493427391342404, "learning_rate": 9.117662988142138e-05, "loss": 0.1177, "step": 1080 }, { "epoch": 0.5813333333333334, "grad_norm": 0.39022278227737894, "learning_rate": 9.10175771244537e-05, "loss": 0.0992, "step": 1090 }, { "epoch": 0.5866666666666667, "grad_norm": 0.5315721039184661, "learning_rate": 9.085724491675642e-05, "loss": 0.0918, "step": 1100 }, { "epoch": 0.592, "grad_norm": 0.3982212002944754, "learning_rate": 9.069563825953092e-05, "loss": 0.103, "step": 1110 }, { "epoch": 0.5973333333333334, "grad_norm": 0.49935235937776945, "learning_rate": 9.0532762193732e-05, "loss": 0.1071, "step": 1120 }, { "epoch": 0.6026666666666667, "grad_norm": 0.4389471233741121, "learning_rate": 9.036862179991093e-05, "loss": 0.0956, "step": 1130 }, { "epoch": 0.608, "grad_norm": 0.37583931374054275, "learning_rate": 9.020322219805674e-05, "loss": 0.119, "step": 1140 }, { "epoch": 0.6133333333333333, "grad_norm": 0.4007269137978201, "learning_rate": 9.003656854743667e-05, "loss": 0.0989, "step": 1150 }, { "epoch": 0.6186666666666667, "grad_norm": 0.22983748867448808, "learning_rate": 8.986866604643518e-05, "loss": 0.1216, "step": 1160 }, { "epoch": 0.624, "grad_norm": 0.2919129177702082, "learning_rate": 8.969951993239177e-05, "loss": 0.1159, "step": 1170 }, { "epoch": 0.6293333333333333, "grad_norm": 0.42685465915232523, "learning_rate": 8.952913548143765e-05, "loss": 0.1053, "step": 1180 }, { "epoch": 0.6346666666666667, "grad_norm": 0.4940766540466555, "learning_rate": 8.935751800833117e-05, "loss": 0.1246, "step": 1190 }, { "epoch": 0.64, "grad_norm": 0.8014891920598766, "learning_rate": 8.9184672866292e-05, "loss": 0.0953, "step": 1200 }, { "epoch": 0.6453333333333333, "grad_norm": 1.0102261826167123, "learning_rate": 8.901060544683418e-05, "loss": 0.1363, "step": 1210 }, { "epoch": 0.6506666666666666, "grad_norm": 0.3381029898442774, "learning_rate": 8.883532117959796e-05, "loss": 0.1119, "step": 1220 }, { "epoch": 0.656, "grad_norm": 0.1765807017912055, "learning_rate": 8.865882553218037e-05, "loss": 0.1045, "step": 1230 }, { "epoch": 0.6613333333333333, "grad_norm": 0.2481008489208638, "learning_rate": 8.848112400996473e-05, "loss": 0.0844, "step": 1240 }, { "epoch": 0.6666666666666666, "grad_norm": 0.40257494294240137, "learning_rate": 8.83022221559489e-05, "loss": 0.1098, "step": 1250 }, { "epoch": 0.672, "grad_norm": 0.21659444832113053, "learning_rate": 8.81221255505724e-05, "loss": 0.0841, "step": 1260 }, { "epoch": 0.6773333333333333, "grad_norm": 0.45003590946007693, "learning_rate": 8.794083981154229e-05, "loss": 0.0953, "step": 1270 }, { "epoch": 0.6826666666666666, "grad_norm": 0.3060785231041838, "learning_rate": 8.775837059365796e-05, "loss": 0.0891, "step": 1280 }, { "epoch": 0.688, "grad_norm": 0.48212842497089275, "learning_rate": 8.757472358863481e-05, "loss": 0.1213, "step": 1290 }, { "epoch": 0.6933333333333334, "grad_norm": 0.38183312129397007, "learning_rate": 8.73899045249266e-05, "loss": 0.1262, "step": 1300 }, { "epoch": 0.6986666666666667, "grad_norm": 0.16897278886925582, "learning_rate": 8.720391916754683e-05, "loss": 0.1105, "step": 1310 }, { "epoch": 0.704, "grad_norm": 0.41454203752344526, "learning_rate": 8.701677331788891e-05, "loss": 0.1167, "step": 1320 }, { "epoch": 0.7093333333333334, "grad_norm": 0.5424739075366093, "learning_rate": 8.682847281354517e-05, "loss": 0.1044, "step": 1330 }, { "epoch": 0.7146666666666667, "grad_norm": 0.41458214478139377, "learning_rate": 8.663902352812478e-05, "loss": 0.0943, "step": 1340 }, { "epoch": 0.72, "grad_norm": 0.6110458816083125, "learning_rate": 8.644843137107059e-05, "loss": 0.105, "step": 1350 }, { "epoch": 0.7253333333333334, "grad_norm": 0.3027146897010462, "learning_rate": 8.625670228747467e-05, "loss": 0.0948, "step": 1360 }, { "epoch": 0.7306666666666667, "grad_norm": 0.5887145713143892, "learning_rate": 8.606384225789303e-05, "loss": 0.1068, "step": 1370 }, { "epoch": 0.736, "grad_norm": 0.32262143676240707, "learning_rate": 8.586985729815894e-05, "loss": 0.126, "step": 1380 }, { "epoch": 0.7413333333333333, "grad_norm": 0.4594442396043774, "learning_rate": 8.567475345919532e-05, "loss": 0.1265, "step": 1390 }, { "epoch": 0.7466666666666667, "grad_norm": 0.2802249758279088, "learning_rate": 8.547853682682604e-05, "loss": 0.1031, "step": 1400 }, { "epoch": 0.752, "grad_norm": 0.1705018814892353, "learning_rate": 8.528121352158604e-05, "loss": 0.0739, "step": 1410 }, { "epoch": 0.7573333333333333, "grad_norm": 0.5164855267342361, "learning_rate": 8.508278969853037e-05, "loss": 0.1111, "step": 1420 }, { "epoch": 0.7626666666666667, "grad_norm": 0.9191210384434311, "learning_rate": 8.488327154704232e-05, "loss": 0.1354, "step": 1430 }, { "epoch": 0.768, "grad_norm": 0.36159045866308576, "learning_rate": 8.468266529064025e-05, "loss": 0.1053, "step": 1440 }, { "epoch": 0.7733333333333333, "grad_norm": 0.8350887956434945, "learning_rate": 8.44809771867835e-05, "loss": 0.077, "step": 1450 }, { "epoch": 0.7786666666666666, "grad_norm": 0.35373662825924956, "learning_rate": 8.427821352667718e-05, "loss": 0.1073, "step": 1460 }, { "epoch": 0.784, "grad_norm": 0.3853120309973442, "learning_rate": 8.4074380635076e-05, "loss": 0.1046, "step": 1470 }, { "epoch": 0.7893333333333333, "grad_norm": 0.5506619093665587, "learning_rate": 8.386948487008686e-05, "loss": 0.1367, "step": 1480 }, { "epoch": 0.7946666666666666, "grad_norm": 0.44255605679561044, "learning_rate": 8.366353262297069e-05, "loss": 0.1123, "step": 1490 }, { "epoch": 0.8, "grad_norm": 0.8496883184367431, "learning_rate": 8.345653031794292e-05, "loss": 0.1183, "step": 1500 }, { "epoch": 0.8053333333333333, "grad_norm": 0.7598934543131802, "learning_rate": 8.324848441197317e-05, "loss": 0.1108, "step": 1510 }, { "epoch": 0.8106666666666666, "grad_norm": 0.4173694678153346, "learning_rate": 8.303940139458389e-05, "loss": 0.1593, "step": 1520 }, { "epoch": 0.816, "grad_norm": 0.4368115956131347, "learning_rate": 8.282928778764783e-05, "loss": 0.0826, "step": 1530 }, { "epoch": 0.8213333333333334, "grad_norm": 0.997856058035319, "learning_rate": 8.261815014518466e-05, "loss": 0.123, "step": 1540 }, { "epoch": 0.8266666666666667, "grad_norm": 0.6374783961684617, "learning_rate": 8.240599505315655e-05, "loss": 0.1221, "step": 1550 }, { "epoch": 0.832, "grad_norm": 0.34489760269429076, "learning_rate": 8.21928291292627e-05, "loss": 0.1178, "step": 1560 }, { "epoch": 0.8373333333333334, "grad_norm": 0.30775052627241856, "learning_rate": 8.19786590227329e-05, "loss": 0.1019, "step": 1570 }, { "epoch": 0.8426666666666667, "grad_norm": 0.22077560925817727, "learning_rate": 8.176349141412022e-05, "loss": 0.0848, "step": 1580 }, { "epoch": 0.848, "grad_norm": 0.4258026165561442, "learning_rate": 8.154733301509248e-05, "loss": 0.0896, "step": 1590 }, { "epoch": 0.8533333333333334, "grad_norm": 0.6558502712245985, "learning_rate": 8.133019056822304e-05, "loss": 0.0899, "step": 1600 }, { "epoch": 0.8586666666666667, "grad_norm": 1.0125852396857424, "learning_rate": 8.111207084678032e-05, "loss": 0.1104, "step": 1610 }, { "epoch": 0.864, "grad_norm": 0.5541441721835062, "learning_rate": 8.089298065451672e-05, "loss": 0.1062, "step": 1620 }, { "epoch": 0.8693333333333333, "grad_norm": 0.5365675665886724, "learning_rate": 8.067292682545622e-05, "loss": 0.1112, "step": 1630 }, { "epoch": 0.8746666666666667, "grad_norm": 0.332409475838846, "learning_rate": 8.045191622368128e-05, "loss": 0.0996, "step": 1640 }, { "epoch": 0.88, "grad_norm": 0.4204325936155781, "learning_rate": 8.022995574311876e-05, "loss": 0.0739, "step": 1650 }, { "epoch": 0.8853333333333333, "grad_norm": 0.6962438688373588, "learning_rate": 8.000705230732478e-05, "loss": 0.1168, "step": 1660 }, { "epoch": 0.8906666666666667, "grad_norm": 0.3222130925670093, "learning_rate": 7.97832128692689e-05, "loss": 0.0907, "step": 1670 }, { "epoch": 0.896, "grad_norm": 0.6122766792397801, "learning_rate": 7.95584444111171e-05, "loss": 0.0824, "step": 1680 }, { "epoch": 0.9013333333333333, "grad_norm": 0.1065527730481782, "learning_rate": 7.933275394401406e-05, "loss": 0.1244, "step": 1690 }, { "epoch": 0.9066666666666666, "grad_norm": 0.37140617303140827, "learning_rate": 7.910614850786448e-05, "loss": 0.1153, "step": 1700 }, { "epoch": 0.912, "grad_norm": 0.29395969029711, "learning_rate": 7.887863517111338e-05, "loss": 0.0907, "step": 1710 }, { "epoch": 0.9173333333333333, "grad_norm": 0.4911911108712018, "learning_rate": 7.865022103052578e-05, "loss": 0.1096, "step": 1720 }, { "epoch": 0.9226666666666666, "grad_norm": 0.42139190410067234, "learning_rate": 7.842091321096515e-05, "loss": 0.1, "step": 1730 }, { "epoch": 0.928, "grad_norm": 0.22412934787084188, "learning_rate": 7.819071886517134e-05, "loss": 0.0902, "step": 1740 }, { "epoch": 0.9333333333333333, "grad_norm": 0.3979173949902298, "learning_rate": 7.795964517353735e-05, "loss": 0.1013, "step": 1750 }, { "epoch": 0.9386666666666666, "grad_norm": 0.4614257858507046, "learning_rate": 7.772769934388537e-05, "loss": 0.0869, "step": 1760 }, { "epoch": 0.944, "grad_norm": 0.3763094165767397, "learning_rate": 7.7494888611242e-05, "loss": 0.1147, "step": 1770 }, { "epoch": 0.9493333333333334, "grad_norm": 0.31609328781987217, "learning_rate": 7.726122023761251e-05, "loss": 0.1223, "step": 1780 }, { "epoch": 0.9546666666666667, "grad_norm": 0.37271419310563314, "learning_rate": 7.702670151175436e-05, "loss": 0.0788, "step": 1790 }, { "epoch": 0.96, "grad_norm": 0.48050449945695367, "learning_rate": 7.679133974894983e-05, "loss": 0.1075, "step": 1800 }, { "epoch": 0.9653333333333334, "grad_norm": 0.6907172070372132, "learning_rate": 7.655514229077784e-05, "loss": 0.1055, "step": 1810 }, { "epoch": 0.9706666666666667, "grad_norm": 0.5443195130424558, "learning_rate": 7.631811650488489e-05, "loss": 0.0846, "step": 1820 }, { "epoch": 0.976, "grad_norm": 0.4205371880431266, "learning_rate": 7.60802697847554e-05, "loss": 0.0695, "step": 1830 }, { "epoch": 0.9813333333333333, "grad_norm": 0.5120314719588245, "learning_rate": 7.584160954948086e-05, "loss": 0.1013, "step": 1840 }, { "epoch": 0.9866666666666667, "grad_norm": 0.36768845767784575, "learning_rate": 7.560214324352858e-05, "loss": 0.1076, "step": 1850 }, { "epoch": 0.992, "grad_norm": 0.3711863966997295, "learning_rate": 7.536187833650947e-05, "loss": 0.0944, "step": 1860 }, { "epoch": 0.9973333333333333, "grad_norm": 0.6631685096367039, "learning_rate": 7.512082232294491e-05, "loss": 0.1176, "step": 1870 }, { "epoch": 1.0026666666666666, "grad_norm": 0.29960848160240294, "learning_rate": 7.487898272203313e-05, "loss": 0.0822, "step": 1880 }, { "epoch": 1.008, "grad_norm": 0.2478259825331279, "learning_rate": 7.463636707741458e-05, "loss": 0.1009, "step": 1890 }, { "epoch": 1.0133333333333334, "grad_norm": 0.30290477113509606, "learning_rate": 7.439298295693665e-05, "loss": 0.0676, "step": 1900 }, { "epoch": 1.0186666666666666, "grad_norm": 0.40197799057007644, "learning_rate": 7.414883795241753e-05, "loss": 0.0779, "step": 1910 }, { "epoch": 1.024, "grad_norm": 0.4652260546983315, "learning_rate": 7.390393967940962e-05, "loss": 0.0841, "step": 1920 }, { "epoch": 1.0293333333333334, "grad_norm": 0.43365388964393553, "learning_rate": 7.365829577696166e-05, "loss": 0.0648, "step": 1930 }, { "epoch": 1.0346666666666666, "grad_norm": 0.5498189712127223, "learning_rate": 7.341191390738073e-05, "loss": 0.0878, "step": 1940 }, { "epoch": 1.04, "grad_norm": 0.2612575956117774, "learning_rate": 7.316480175599309e-05, "loss": 0.0754, "step": 1950 }, { "epoch": 1.0453333333333332, "grad_norm": 0.3248921036879903, "learning_rate": 7.29169670309045e-05, "loss": 0.1143, "step": 1960 }, { "epoch": 1.0506666666666666, "grad_norm": 0.570016016242483, "learning_rate": 7.266841746275976e-05, "loss": 0.0759, "step": 1970 }, { "epoch": 1.056, "grad_norm": 0.4209678000087214, "learning_rate": 7.241916080450163e-05, "loss": 0.0645, "step": 1980 }, { "epoch": 1.0613333333333332, "grad_norm": 0.36521562277579905, "learning_rate": 7.216920483112886e-05, "loss": 0.0686, "step": 1990 }, { "epoch": 1.0666666666666667, "grad_norm": 0.6100574260336612, "learning_rate": 7.191855733945387e-05, "loss": 0.0941, "step": 2000 }, { "epoch": 1.072, "grad_norm": 0.522948740669964, "learning_rate": 7.166722614785937e-05, "loss": 0.0923, "step": 2010 }, { "epoch": 1.0773333333333333, "grad_norm": 0.17259747644545873, "learning_rate": 7.141521909605452e-05, "loss": 0.0746, "step": 2020 }, { "epoch": 1.0826666666666667, "grad_norm": 0.4207681411604061, "learning_rate": 7.116254404483049e-05, "loss": 0.095, "step": 2030 }, { "epoch": 1.088, "grad_norm": 1.6998180333313226, "learning_rate": 7.090920887581506e-05, "loss": 0.1009, "step": 2040 }, { "epoch": 1.0933333333333333, "grad_norm": 0.3589115559771677, "learning_rate": 7.06552214912271e-05, "loss": 0.0735, "step": 2050 }, { "epoch": 1.0986666666666667, "grad_norm": 0.23326365127982182, "learning_rate": 7.040058981362965e-05, "loss": 0.0967, "step": 2060 }, { "epoch": 1.104, "grad_norm": 0.37425404856242867, "learning_rate": 7.014532178568314e-05, "loss": 0.0922, "step": 2070 }, { "epoch": 1.1093333333333333, "grad_norm": 0.44032451781729426, "learning_rate": 6.98894253698975e-05, "loss": 0.0982, "step": 2080 }, { "epoch": 1.1146666666666667, "grad_norm": 0.28668555508751375, "learning_rate": 6.963290854838376e-05, "loss": 0.0776, "step": 2090 }, { "epoch": 1.12, "grad_norm": 0.24707405350103206, "learning_rate": 6.937577932260515e-05, "loss": 0.0882, "step": 2100 }, { "epoch": 1.1253333333333333, "grad_norm": 0.16021388044237267, "learning_rate": 6.911804571312745e-05, "loss": 0.094, "step": 2110 }, { "epoch": 1.1306666666666667, "grad_norm": 0.2961729289260407, "learning_rate": 6.885971575936883e-05, "loss": 0.0701, "step": 2120 }, { "epoch": 1.1360000000000001, "grad_norm": 0.4572402166698293, "learning_rate": 6.860079751934908e-05, "loss": 0.1047, "step": 2130 }, { "epoch": 1.1413333333333333, "grad_norm": 0.48890815149548195, "learning_rate": 6.834129906943822e-05, "loss": 0.1013, "step": 2140 }, { "epoch": 1.1466666666666667, "grad_norm": 0.18647040347946883, "learning_rate": 6.808122850410461e-05, "loss": 0.0732, "step": 2150 }, { "epoch": 1.152, "grad_norm": 0.17845365980179767, "learning_rate": 6.782059393566253e-05, "loss": 0.0691, "step": 2160 }, { "epoch": 1.1573333333333333, "grad_norm": 0.27522546946949755, "learning_rate": 6.755940349401901e-05, "loss": 0.083, "step": 2170 }, { "epoch": 1.1626666666666667, "grad_norm": 0.3101212649627153, "learning_rate": 6.729766532642025e-05, "loss": 0.1005, "step": 2180 }, { "epoch": 1.168, "grad_norm": 0.7602219145558438, "learning_rate": 6.70353875971976e-05, "loss": 0.074, "step": 2190 }, { "epoch": 1.1733333333333333, "grad_norm": 0.3749850538704279, "learning_rate": 6.677257848751277e-05, "loss": 0.104, "step": 2200 }, { "epoch": 1.1786666666666668, "grad_norm": 0.29487217368143226, "learning_rate": 6.650924619510269e-05, "loss": 0.0827, "step": 2210 }, { "epoch": 1.184, "grad_norm": 0.589501149527065, "learning_rate": 6.624539893402382e-05, "loss": 0.0811, "step": 2220 }, { "epoch": 1.1893333333333334, "grad_norm": 0.3582515462249089, "learning_rate": 6.59810449343959e-05, "loss": 0.1256, "step": 2230 }, { "epoch": 1.1946666666666665, "grad_norm": 0.4908746582863155, "learning_rate": 6.57161924421452e-05, "loss": 0.0661, "step": 2240 }, { "epoch": 1.2, "grad_norm": 0.14304137319582716, "learning_rate": 6.545084971874738e-05, "loss": 0.0873, "step": 2250 }, { "epoch": 1.2053333333333334, "grad_norm": 0.3790267153262242, "learning_rate": 6.518502504096971e-05, "loss": 0.0696, "step": 2260 }, { "epoch": 1.2106666666666666, "grad_norm": 0.45520542595416097, "learning_rate": 6.491872670061302e-05, "loss": 0.0911, "step": 2270 }, { "epoch": 1.216, "grad_norm": 0.27211113914935425, "learning_rate": 6.465196300425287e-05, "loss": 0.0806, "step": 2280 }, { "epoch": 1.2213333333333334, "grad_norm": 0.42486977142297205, "learning_rate": 6.438474227298064e-05, "loss": 0.0875, "step": 2290 }, { "epoch": 1.2266666666666666, "grad_norm": 0.20325507793744182, "learning_rate": 6.411707284214384e-05, "loss": 0.0797, "step": 2300 }, { "epoch": 1.232, "grad_norm": 0.2528543234113553, "learning_rate": 6.384896306108612e-05, "loss": 0.0777, "step": 2310 }, { "epoch": 1.2373333333333334, "grad_norm": 0.17659437102775696, "learning_rate": 6.358042129288694e-05, "loss": 0.0878, "step": 2320 }, { "epoch": 1.2426666666666666, "grad_norm": 0.4378309885022583, "learning_rate": 6.331145591410057e-05, "loss": 0.0703, "step": 2330 }, { "epoch": 1.248, "grad_norm": 0.2878798809103319, "learning_rate": 6.304207531449486e-05, "loss": 0.0562, "step": 2340 }, { "epoch": 1.2533333333333334, "grad_norm": 0.622720876199079, "learning_rate": 6.277228789678953e-05, "loss": 0.0733, "step": 2350 }, { "epoch": 1.2586666666666666, "grad_norm": 0.30345435583889435, "learning_rate": 6.250210207639411e-05, "loss": 0.0925, "step": 2360 }, { "epoch": 1.264, "grad_norm": 0.3040340623092671, "learning_rate": 6.223152628114537e-05, "loss": 0.0914, "step": 2370 }, { "epoch": 1.2693333333333334, "grad_norm": 0.7540684317257884, "learning_rate": 6.196056895104448e-05, "loss": 0.0545, "step": 2380 }, { "epoch": 1.2746666666666666, "grad_norm": 0.2416397638780232, "learning_rate": 6.168923853799369e-05, "loss": 0.0992, "step": 2390 }, { "epoch": 1.28, "grad_norm": 0.2701416856707187, "learning_rate": 6.141754350553279e-05, "loss": 0.0987, "step": 2400 }, { "epoch": 1.2853333333333334, "grad_norm": 0.31530904590926867, "learning_rate": 6.114549232857503e-05, "loss": 0.0821, "step": 2410 }, { "epoch": 1.2906666666666666, "grad_norm": 0.3025708573699948, "learning_rate": 6.0873093493142744e-05, "loss": 0.0684, "step": 2420 }, { "epoch": 1.296, "grad_norm": 0.20030611544884916, "learning_rate": 6.0600355496102745e-05, "loss": 0.0858, "step": 2430 }, { "epoch": 1.3013333333333335, "grad_norm": 0.2898974220746758, "learning_rate": 6.032728684490118e-05, "loss": 0.1062, "step": 2440 }, { "epoch": 1.3066666666666666, "grad_norm": 0.5731514111925414, "learning_rate": 6.005389605729824e-05, "loss": 0.0707, "step": 2450 }, { "epoch": 1.312, "grad_norm": 0.2945295147968901, "learning_rate": 5.9780191661102415e-05, "loss": 0.0821, "step": 2460 }, { "epoch": 1.3173333333333335, "grad_norm": 0.3188567586567806, "learning_rate": 5.950618219390451e-05, "loss": 0.0658, "step": 2470 }, { "epoch": 1.3226666666666667, "grad_norm": 0.38516931134277715, "learning_rate": 5.923187620281135e-05, "loss": 0.0901, "step": 2480 }, { "epoch": 1.328, "grad_norm": 0.2936840523914936, "learning_rate": 5.8957282244179124e-05, "loss": 0.0865, "step": 2490 }, { "epoch": 1.3333333333333333, "grad_norm": 0.3148633249416305, "learning_rate": 5.868240888334653e-05, "loss": 0.0787, "step": 2500 }, { "epoch": 1.3386666666666667, "grad_norm": 0.41010777430448553, "learning_rate": 5.840726469436758e-05, "loss": 0.1032, "step": 2510 }, { "epoch": 1.3439999999999999, "grad_norm": 0.5189662418760232, "learning_rate": 5.813185825974419e-05, "loss": 0.0646, "step": 2520 }, { "epoch": 1.3493333333333333, "grad_norm": 0.40047511027193056, "learning_rate": 5.7856198170158394e-05, "loss": 0.0779, "step": 2530 }, { "epoch": 1.3546666666666667, "grad_norm": 0.40767498139938485, "learning_rate": 5.758029302420446e-05, "loss": 0.0818, "step": 2540 }, { "epoch": 1.3599999999999999, "grad_norm": 0.31390992193854356, "learning_rate": 5.730415142812059e-05, "loss": 0.1287, "step": 2550 }, { "epoch": 1.3653333333333333, "grad_norm": 0.39910106081363045, "learning_rate": 5.7027781995520545e-05, "loss": 0.1025, "step": 2560 }, { "epoch": 1.3706666666666667, "grad_norm": 0.34396756245996873, "learning_rate": 5.6751193347124965e-05, "loss": 0.0908, "step": 2570 }, { "epoch": 1.376, "grad_norm": 0.4234762361527916, "learning_rate": 5.6474394110492344e-05, "loss": 0.0943, "step": 2580 }, { "epoch": 1.3813333333333333, "grad_norm": 0.35272070628168983, "learning_rate": 5.619739291975009e-05, "loss": 0.0916, "step": 2590 }, { "epoch": 1.3866666666666667, "grad_norm": 0.28890898733983106, "learning_rate": 5.5920198415325064e-05, "loss": 0.0909, "step": 2600 }, { "epoch": 1.392, "grad_norm": 0.2965196072655647, "learning_rate": 5.564281924367408e-05, "loss": 0.0806, "step": 2610 }, { "epoch": 1.3973333333333333, "grad_norm": 0.13381097239370168, "learning_rate": 5.5365264057014335e-05, "loss": 0.0869, "step": 2620 }, { "epoch": 1.4026666666666667, "grad_norm": 0.3704804003627925, "learning_rate": 5.508754151305332e-05, "loss": 0.1066, "step": 2630 }, { "epoch": 1.408, "grad_norm": 0.26763992563336647, "learning_rate": 5.480966027471889e-05, "loss": 0.094, "step": 2640 }, { "epoch": 1.4133333333333333, "grad_norm": 0.44739338728189787, "learning_rate": 5.453162900988902e-05, "loss": 0.0793, "step": 2650 }, { "epoch": 1.4186666666666667, "grad_norm": 0.4590815685031545, "learning_rate": 5.4253456391121405e-05, "loss": 0.0856, "step": 2660 }, { "epoch": 1.424, "grad_norm": 0.30114444493564724, "learning_rate": 5.3975151095382995e-05, "loss": 0.0687, "step": 2670 }, { "epoch": 1.4293333333333333, "grad_norm": 0.3552725988648273, "learning_rate": 5.369672180377926e-05, "loss": 0.0791, "step": 2680 }, { "epoch": 1.4346666666666668, "grad_norm": 0.18915400436946017, "learning_rate": 5.3418177201283434e-05, "loss": 0.0806, "step": 2690 }, { "epoch": 1.44, "grad_norm": 0.5359478488110042, "learning_rate": 5.313952597646568e-05, "loss": 0.1072, "step": 2700 }, { "epoch": 1.4453333333333334, "grad_norm": 0.38516717080686685, "learning_rate": 5.286077682122191e-05, "loss": 0.0862, "step": 2710 }, { "epoch": 1.4506666666666668, "grad_norm": 0.35806535990815996, "learning_rate": 5.258193843050283e-05, "loss": 0.0752, "step": 2720 }, { "epoch": 1.456, "grad_norm": 0.2860276681519146, "learning_rate": 5.230301950204262e-05, "loss": 0.0773, "step": 2730 }, { "epoch": 1.4613333333333334, "grad_norm": 0.20402004235603322, "learning_rate": 5.202402873608763e-05, "loss": 0.1079, "step": 2740 }, { "epoch": 1.4666666666666668, "grad_norm": 0.40428588805772253, "learning_rate": 5.174497483512506e-05, "loss": 0.1041, "step": 2750 }, { "epoch": 1.472, "grad_norm": 0.32606524326477176, "learning_rate": 5.1465866503611426e-05, "loss": 0.0782, "step": 2760 }, { "epoch": 1.4773333333333334, "grad_norm": 0.3040139309828935, "learning_rate": 5.11867124477011e-05, "loss": 0.0912, "step": 2770 }, { "epoch": 1.4826666666666668, "grad_norm": 0.658823162263067, "learning_rate": 5.090752137497474e-05, "loss": 0.0871, "step": 2780 }, { "epoch": 1.488, "grad_norm": 0.33742994558542017, "learning_rate": 5.062830199416764e-05, "loss": 0.1148, "step": 2790 }, { "epoch": 1.4933333333333334, "grad_norm": 0.35948594248962984, "learning_rate": 5.034906301489808e-05, "loss": 0.0969, "step": 2800 }, { "epoch": 1.4986666666666666, "grad_norm": 0.3021664680700608, "learning_rate": 5.006981314739573e-05, "loss": 0.0646, "step": 2810 }, { "epoch": 1.504, "grad_norm": 1.2787569861693897, "learning_rate": 4.979056110222981e-05, "loss": 0.087, "step": 2820 }, { "epoch": 1.5093333333333332, "grad_norm": 0.2620079864701764, "learning_rate": 4.951131559003756e-05, "loss": 0.0931, "step": 2830 }, { "epoch": 1.5146666666666668, "grad_norm": 0.2539639246492767, "learning_rate": 4.9232085321252354e-05, "loss": 0.0879, "step": 2840 }, { "epoch": 1.52, "grad_norm": 0.31496954999876287, "learning_rate": 4.895287900583216e-05, "loss": 0.068, "step": 2850 }, { "epoch": 1.5253333333333332, "grad_norm": 0.13219937949465285, "learning_rate": 4.8673705352987694e-05, "loss": 0.0627, "step": 2860 }, { "epoch": 1.5306666666666666, "grad_norm": 0.4150758140257884, "learning_rate": 4.839457307091093e-05, "loss": 0.0692, "step": 2870 }, { "epoch": 1.536, "grad_norm": 0.3064221339675516, "learning_rate": 4.811549086650327e-05, "loss": 0.093, "step": 2880 }, { "epoch": 1.5413333333333332, "grad_norm": 0.28833606796493827, "learning_rate": 4.783646744510416e-05, "loss": 0.0721, "step": 2890 }, { "epoch": 1.5466666666666666, "grad_norm": 0.24958747097065986, "learning_rate": 4.755751151021934e-05, "loss": 0.1079, "step": 2900 }, { "epoch": 1.552, "grad_norm": 0.36912223553393253, "learning_rate": 4.7278631763249554e-05, "loss": 0.0583, "step": 2910 }, { "epoch": 1.5573333333333332, "grad_norm": 0.29746654577673204, "learning_rate": 4.699983690321898e-05, "loss": 0.0755, "step": 2920 }, { "epoch": 1.5626666666666666, "grad_norm": 0.3679147147948016, "learning_rate": 4.672113562650394e-05, "loss": 0.0714, "step": 2930 }, { "epoch": 1.568, "grad_norm": 0.4204474784538397, "learning_rate": 4.6442536626561675e-05, "loss": 0.097, "step": 2940 }, { "epoch": 1.5733333333333333, "grad_norm": 0.19070962744045192, "learning_rate": 4.616404859365907e-05, "loss": 0.074, "step": 2950 }, { "epoch": 1.5786666666666667, "grad_norm": 0.43016277329321917, "learning_rate": 4.588568021460172e-05, "loss": 0.0995, "step": 2960 }, { "epoch": 1.584, "grad_norm": 0.2765334715744165, "learning_rate": 4.560744017246284e-05, "loss": 0.0808, "step": 2970 }, { "epoch": 1.5893333333333333, "grad_norm": 0.23336470867240178, "learning_rate": 4.532933714631248e-05, "loss": 0.0773, "step": 2980 }, { "epoch": 1.5946666666666667, "grad_norm": 0.36940825846677594, "learning_rate": 4.505137981094675e-05, "loss": 0.0743, "step": 2990 }, { "epoch": 1.6, "grad_norm": 0.36744000774980046, "learning_rate": 4.477357683661734e-05, "loss": 0.0873, "step": 3000 }, { "epoch": 1.6053333333333333, "grad_norm": 0.39795613399145335, "learning_rate": 4.44959368887609e-05, "loss": 0.0862, "step": 3010 }, { "epoch": 1.6106666666666667, "grad_norm": 0.2694959052713876, "learning_rate": 4.421846862772893e-05, "loss": 0.0748, "step": 3020 }, { "epoch": 1.616, "grad_norm": 0.9275977295098791, "learning_rate": 4.394118070851749e-05, "loss": 0.0742, "step": 3030 }, { "epoch": 1.6213333333333333, "grad_norm": 0.4586127053073728, "learning_rate": 4.366408178049728e-05, "loss": 0.0958, "step": 3040 }, { "epoch": 1.6266666666666667, "grad_norm": 0.3805484083498133, "learning_rate": 4.3387180487143876e-05, "loss": 0.0704, "step": 3050 }, { "epoch": 1.6320000000000001, "grad_norm": 0.5307411679037863, "learning_rate": 4.31104854657681e-05, "loss": 0.0844, "step": 3060 }, { "epoch": 1.6373333333333333, "grad_norm": 0.29245846705730816, "learning_rate": 4.283400534724653e-05, "loss": 0.085, "step": 3070 }, { "epoch": 1.6426666666666667, "grad_norm": 0.3521296557997997, "learning_rate": 4.255774875575239e-05, "loss": 0.069, "step": 3080 }, { "epoch": 1.6480000000000001, "grad_norm": 0.6143953116038394, "learning_rate": 4.228172430848644e-05, "loss": 0.112, "step": 3090 }, { "epoch": 1.6533333333333333, "grad_norm": 0.31924940394339796, "learning_rate": 4.2005940615408264e-05, "loss": 0.0882, "step": 3100 }, { "epoch": 1.6586666666666665, "grad_norm": 2.2957040830886735, "learning_rate": 4.1730406278967624e-05, "loss": 0.1043, "step": 3110 }, { "epoch": 1.6640000000000001, "grad_norm": 0.33385380213973975, "learning_rate": 4.1455129893836174e-05, "loss": 0.091, "step": 3120 }, { "epoch": 1.6693333333333333, "grad_norm": 0.20727111460146536, "learning_rate": 4.118012004663939e-05, "loss": 0.0675, "step": 3130 }, { "epoch": 1.6746666666666665, "grad_norm": 0.21465641715317174, "learning_rate": 4.0905385315688667e-05, "loss": 0.0772, "step": 3140 }, { "epoch": 1.6800000000000002, "grad_norm": 0.1881962738877192, "learning_rate": 4.063093427071376e-05, "loss": 0.0945, "step": 3150 }, { "epoch": 1.6853333333333333, "grad_norm": 0.14265854119617788, "learning_rate": 4.0356775472595546e-05, "loss": 0.0773, "step": 3160 }, { "epoch": 1.6906666666666665, "grad_norm": 0.31303445615610687, "learning_rate": 4.008291747309884e-05, "loss": 0.0786, "step": 3170 }, { "epoch": 1.696, "grad_norm": 0.35208500817933025, "learning_rate": 3.9809368814605766e-05, "loss": 0.0753, "step": 3180 }, { "epoch": 1.7013333333333334, "grad_norm": 0.087809683555692, "learning_rate": 3.9536138029849244e-05, "loss": 0.0929, "step": 3190 }, { "epoch": 1.7066666666666666, "grad_norm": 0.26242887560409056, "learning_rate": 3.926323364164684e-05, "loss": 0.0884, "step": 3200 }, { "epoch": 1.712, "grad_norm": 0.4173368634919108, "learning_rate": 3.899066416263493e-05, "loss": 0.082, "step": 3210 }, { "epoch": 1.7173333333333334, "grad_norm": 0.2891027856531508, "learning_rate": 3.871843809500313e-05, "loss": 0.0655, "step": 3220 }, { "epoch": 1.7226666666666666, "grad_norm": 0.5673345100957172, "learning_rate": 3.844656393022912e-05, "loss": 0.0914, "step": 3230 }, { "epoch": 1.728, "grad_norm": 1.4531030851514897, "learning_rate": 3.817505014881378e-05, "loss": 0.0817, "step": 3240 }, { "epoch": 1.7333333333333334, "grad_norm": 0.2855965535271414, "learning_rate": 3.790390522001662e-05, "loss": 0.0617, "step": 3250 }, { "epoch": 1.7386666666666666, "grad_norm": 0.3666287134774054, "learning_rate": 3.7633137601591644e-05, "loss": 0.0687, "step": 3260 }, { "epoch": 1.744, "grad_norm": 0.4762680602049916, "learning_rate": 3.736275573952354e-05, "loss": 0.0805, "step": 3270 }, { "epoch": 1.7493333333333334, "grad_norm": 0.512614776546811, "learning_rate": 3.7092768067764124e-05, "loss": 0.0712, "step": 3280 }, { "epoch": 1.7546666666666666, "grad_norm": 0.29361082550236245, "learning_rate": 3.682318300796938e-05, "loss": 0.0848, "step": 3290 }, { "epoch": 1.76, "grad_norm": 0.3709245817859311, "learning_rate": 3.655400896923672e-05, "loss": 0.0766, "step": 3300 }, { "epoch": 1.7653333333333334, "grad_norm": 0.2884559512019434, "learning_rate": 3.6285254347842676e-05, "loss": 0.0781, "step": 3310 }, { "epoch": 1.7706666666666666, "grad_norm": 0.520265074969793, "learning_rate": 3.601692752698102e-05, "loss": 0.09, "step": 3320 }, { "epoch": 1.776, "grad_norm": 1.0858833430543302, "learning_rate": 3.5749036876501194e-05, "loss": 0.1087, "step": 3330 }, { "epoch": 1.7813333333333334, "grad_norm": 0.31843903671877066, "learning_rate": 3.5481590752647383e-05, "loss": 0.0828, "step": 3340 }, { "epoch": 1.7866666666666666, "grad_norm": 0.8203856161105338, "learning_rate": 3.5214597497797684e-05, "loss": 0.0613, "step": 3350 }, { "epoch": 1.792, "grad_norm": 0.23627368771852916, "learning_rate": 3.494806544020398e-05, "loss": 0.0744, "step": 3360 }, { "epoch": 1.7973333333333334, "grad_norm": 0.4880356488115272, "learning_rate": 3.46820028937322e-05, "loss": 0.0872, "step": 3370 }, { "epoch": 1.8026666666666666, "grad_norm": 0.20938676476329207, "learning_rate": 3.441641815760291e-05, "loss": 0.0846, "step": 3380 }, { "epoch": 1.808, "grad_norm": 0.32636541501646193, "learning_rate": 3.4151319516132416e-05, "loss": 0.0913, "step": 3390 }, { "epoch": 1.8133333333333335, "grad_norm": 0.3275073807856349, "learning_rate": 3.388671523847445e-05, "loss": 0.0928, "step": 3400 }, { "epoch": 1.8186666666666667, "grad_norm": 0.631442858644952, "learning_rate": 3.362261357836216e-05, "loss": 0.0806, "step": 3410 }, { "epoch": 1.8239999999999998, "grad_norm": 0.3332441946360375, "learning_rate": 3.335902277385067e-05, "loss": 0.069, "step": 3420 }, { "epoch": 1.8293333333333335, "grad_norm": 0.816089894444356, "learning_rate": 3.309595104706015e-05, "loss": 0.0645, "step": 3430 }, { "epoch": 1.8346666666666667, "grad_norm": 0.6100400823625405, "learning_rate": 3.2833406603919244e-05, "loss": 0.0969, "step": 3440 }, { "epoch": 1.8399999999999999, "grad_norm": 0.45010875761508756, "learning_rate": 3.257139763390925e-05, "loss": 0.0825, "step": 3450 }, { "epoch": 1.8453333333333335, "grad_norm": 0.5280438310609924, "learning_rate": 3.230993230980853e-05, "loss": 0.082, "step": 3460 }, { "epoch": 1.8506666666666667, "grad_norm": 0.2508632107866348, "learning_rate": 3.204901878743769e-05, "loss": 0.0712, "step": 3470 }, { "epoch": 1.8559999999999999, "grad_norm": 0.08560778622010873, "learning_rate": 3.178866520540509e-05, "loss": 0.0911, "step": 3480 }, { "epoch": 1.8613333333333333, "grad_norm": 2.2157984641276, "learning_rate": 3.152887968485303e-05, "loss": 0.1325, "step": 3490 }, { "epoch": 1.8666666666666667, "grad_norm": 0.45503106463686976, "learning_rate": 3.12696703292044e-05, "loss": 0.0815, "step": 3500 }, { "epoch": 1.8719999999999999, "grad_norm": 0.4137433128045092, "learning_rate": 3.101104522390995e-05, "loss": 0.1141, "step": 3510 }, { "epoch": 1.8773333333333333, "grad_norm": 0.2083545237438405, "learning_rate": 3.075301243619603e-05, "loss": 0.0589, "step": 3520 }, { "epoch": 1.8826666666666667, "grad_norm": 0.5380271507267834, "learning_rate": 3.049558001481302e-05, "loss": 0.0988, "step": 3530 }, { "epoch": 1.888, "grad_norm": 0.2714085551542505, "learning_rate": 3.023875598978419e-05, "loss": 0.0731, "step": 3540 }, { "epoch": 1.8933333333333333, "grad_norm": 0.38180901105647147, "learning_rate": 2.9982548372155263e-05, "loss": 0.0945, "step": 3550 }, { "epoch": 1.8986666666666667, "grad_norm": 0.5186655998690327, "learning_rate": 2.972696515374455e-05, "loss": 0.0711, "step": 3560 }, { "epoch": 1.904, "grad_norm": 0.39082254535327154, "learning_rate": 2.9472014306893603e-05, "loss": 0.0836, "step": 3570 }, { "epoch": 1.9093333333333333, "grad_norm": 0.7144072336484902, "learning_rate": 2.9217703784218608e-05, "loss": 0.1095, "step": 3580 }, { "epoch": 1.9146666666666667, "grad_norm": 0.25797549378170476, "learning_rate": 2.896404151836227e-05, "loss": 0.0862, "step": 3590 }, { "epoch": 1.92, "grad_norm": 0.332760445060726, "learning_rate": 2.8711035421746367e-05, "loss": 0.0963, "step": 3600 }, { "epoch": 1.9253333333333333, "grad_norm": 0.1432031060284195, "learning_rate": 2.8458693386325e-05, "loss": 0.0767, "step": 3610 }, { "epoch": 1.9306666666666668, "grad_norm": 0.2568504489320059, "learning_rate": 2.8207023283338303e-05, "loss": 0.0647, "step": 3620 }, { "epoch": 1.936, "grad_norm": 0.3891494253523245, "learning_rate": 2.795603296306708e-05, "loss": 0.0773, "step": 3630 }, { "epoch": 1.9413333333333334, "grad_norm": 1.2638058810575559, "learning_rate": 2.7705730254587804e-05, "loss": 0.0828, "step": 3640 }, { "epoch": 1.9466666666666668, "grad_norm": 0.13408156841533306, "learning_rate": 2.7456122965528475e-05, "loss": 0.092, "step": 3650 }, { "epoch": 1.952, "grad_norm": 0.3557875161550246, "learning_rate": 2.7207218881825014e-05, "loss": 0.0809, "step": 3660 }, { "epoch": 1.9573333333333334, "grad_norm": 0.552429505986478, "learning_rate": 2.6959025767478463e-05, "loss": 0.0726, "step": 3670 }, { "epoch": 1.9626666666666668, "grad_norm": 0.2712688214704046, "learning_rate": 2.6711551364312787e-05, "loss": 0.0928, "step": 3680 }, { "epoch": 1.968, "grad_norm": 0.7163888790050583, "learning_rate": 2.6464803391733374e-05, "loss": 0.0914, "step": 3690 }, { "epoch": 1.9733333333333334, "grad_norm": 0.3657298267449904, "learning_rate": 2.6218789546486234e-05, "loss": 0.0898, "step": 3700 }, { "epoch": 1.9786666666666668, "grad_norm": 0.2423909359881568, "learning_rate": 2.5973517502417966e-05, "loss": 0.0855, "step": 3710 }, { "epoch": 1.984, "grad_norm": 0.26774214502073845, "learning_rate": 2.5728994910236304e-05, "loss": 0.0738, "step": 3720 }, { "epoch": 1.9893333333333332, "grad_norm": 0.3274266667915832, "learning_rate": 2.5485229397271565e-05, "loss": 0.078, "step": 3730 }, { "epoch": 1.9946666666666668, "grad_norm": 0.9746618466912024, "learning_rate": 2.524222856723869e-05, "loss": 0.1042, "step": 3740 }, { "epoch": 2.0, "grad_norm": 0.3473879195422688, "learning_rate": 2.500000000000001e-05, "loss": 0.0808, "step": 3750 }, { "epoch": 2.005333333333333, "grad_norm": 0.28432063156987675, "learning_rate": 2.4758551251328922e-05, "loss": 0.0568, "step": 3760 }, { "epoch": 2.010666666666667, "grad_norm": 0.3175954605780835, "learning_rate": 2.4517889852674113e-05, "loss": 0.0538, "step": 3770 }, { "epoch": 2.016, "grad_norm": 0.2769293996728869, "learning_rate": 2.4278023310924673e-05, "loss": 0.0579, "step": 3780 }, { "epoch": 2.021333333333333, "grad_norm": 0.21038554174484056, "learning_rate": 2.403895910817593e-05, "loss": 0.0528, "step": 3790 }, { "epoch": 2.026666666666667, "grad_norm": 0.307088185055706, "learning_rate": 2.3800704701496053e-05, "loss": 0.0722, "step": 3800 }, { "epoch": 2.032, "grad_norm": 0.7038265831265162, "learning_rate": 2.3563267522693415e-05, "loss": 0.0585, "step": 3810 }, { "epoch": 2.037333333333333, "grad_norm": 0.16750540038549258, "learning_rate": 2.332665497808487e-05, "loss": 0.0508, "step": 3820 }, { "epoch": 2.042666666666667, "grad_norm": 0.24873996966708511, "learning_rate": 2.3090874448264637e-05, "loss": 0.0688, "step": 3830 }, { "epoch": 2.048, "grad_norm": 0.30623455974876695, "learning_rate": 2.2855933287874138e-05, "loss": 0.0589, "step": 3840 }, { "epoch": 2.0533333333333332, "grad_norm": 0.3675502542262602, "learning_rate": 2.2621838825372493e-05, "loss": 0.0761, "step": 3850 }, { "epoch": 2.058666666666667, "grad_norm": 0.4128758471578055, "learning_rate": 2.2388598362808073e-05, "loss": 0.0546, "step": 3860 }, { "epoch": 2.064, "grad_norm": 0.42084656028983447, "learning_rate": 2.215621917559062e-05, "loss": 0.0765, "step": 3870 }, { "epoch": 2.0693333333333332, "grad_norm": 0.35834172875696185, "learning_rate": 2.1924708512264282e-05, "loss": 0.0753, "step": 3880 }, { "epoch": 2.074666666666667, "grad_norm": 0.20745938996121496, "learning_rate": 2.1694073594281662e-05, "loss": 0.0699, "step": 3890 }, { "epoch": 2.08, "grad_norm": 0.6659064762293622, "learning_rate": 2.1464321615778422e-05, "loss": 0.0391, "step": 3900 }, { "epoch": 2.0853333333333333, "grad_norm": 0.3489088526651907, "learning_rate": 2.1235459743348872e-05, "loss": 0.056, "step": 3910 }, { "epoch": 2.0906666666666665, "grad_norm": 0.25123219928957363, "learning_rate": 2.100749511582254e-05, "loss": 0.0628, "step": 3920 }, { "epoch": 2.096, "grad_norm": 0.4298327043505954, "learning_rate": 2.07804348440414e-05, "loss": 0.0651, "step": 3930 }, { "epoch": 2.1013333333333333, "grad_norm": 0.494978147540386, "learning_rate": 2.0554286010638076e-05, "loss": 0.0809, "step": 3940 }, { "epoch": 2.1066666666666665, "grad_norm": 0.35935108240553637, "learning_rate": 2.0329055669814934e-05, "loss": 0.071, "step": 3950 }, { "epoch": 2.112, "grad_norm": 1.6253445911001658, "learning_rate": 2.0104750847124075e-05, "loss": 0.0548, "step": 3960 }, { "epoch": 2.1173333333333333, "grad_norm": 0.26735303287551454, "learning_rate": 1.988137853924808e-05, "loss": 0.0501, "step": 3970 }, { "epoch": 2.1226666666666665, "grad_norm": 0.4955255919498363, "learning_rate": 1.9658945713781883e-05, "loss": 0.0515, "step": 3980 }, { "epoch": 2.128, "grad_norm": 0.6299290321133086, "learning_rate": 1.9437459309015427e-05, "loss": 0.0715, "step": 3990 }, { "epoch": 2.1333333333333333, "grad_norm": 0.35646419489378706, "learning_rate": 1.9216926233717085e-05, "loss": 0.0612, "step": 4000 }, { "epoch": 2.1386666666666665, "grad_norm": 0.6263648457112565, "learning_rate": 1.899735336691837e-05, "loss": 0.0559, "step": 4010 }, { "epoch": 2.144, "grad_norm": 0.5067295364494415, "learning_rate": 1.8778747557699224e-05, "loss": 0.0686, "step": 4020 }, { "epoch": 2.1493333333333333, "grad_norm": 0.5718378577909072, "learning_rate": 1.8561115624974375e-05, "loss": 0.0686, "step": 4030 }, { "epoch": 2.1546666666666665, "grad_norm": 0.38694087371051944, "learning_rate": 1.834446435728072e-05, "loss": 0.0615, "step": 4040 }, { "epoch": 2.16, "grad_norm": 0.16203210377675364, "learning_rate": 1.8128800512565513e-05, "loss": 0.0558, "step": 4050 }, { "epoch": 2.1653333333333333, "grad_norm": 0.3274298231556744, "learning_rate": 1.7914130817975594e-05, "loss": 0.0629, "step": 4060 }, { "epoch": 2.1706666666666665, "grad_norm": 0.1660742427236572, "learning_rate": 1.770046196964747e-05, "loss": 0.0541, "step": 4070 }, { "epoch": 2.176, "grad_norm": 0.32433668189025194, "learning_rate": 1.7487800632498545e-05, "loss": 0.0412, "step": 4080 }, { "epoch": 2.1813333333333333, "grad_norm": 0.2329868999973562, "learning_rate": 1.727615344001926e-05, "loss": 0.0603, "step": 4090 }, { "epoch": 2.1866666666666665, "grad_norm": 0.3041955929025176, "learning_rate": 1.7065526994065973e-05, "loss": 0.0518, "step": 4100 }, { "epoch": 2.192, "grad_norm": 0.26409686535013704, "learning_rate": 1.685592786465524e-05, "loss": 0.0724, "step": 4110 }, { "epoch": 2.1973333333333334, "grad_norm": 0.658887581950419, "learning_rate": 1.6647362589758787e-05, "loss": 0.0505, "step": 4120 }, { "epoch": 2.2026666666666666, "grad_norm": 0.46231523957622495, "learning_rate": 1.643983767509954e-05, "loss": 0.0393, "step": 4130 }, { "epoch": 2.208, "grad_norm": 0.38753161721963036, "learning_rate": 1.6233359593948777e-05, "loss": 0.0624, "step": 4140 }, { "epoch": 2.2133333333333334, "grad_norm": 0.5440576231610327, "learning_rate": 1.602793478692419e-05, "loss": 0.0563, "step": 4150 }, { "epoch": 2.2186666666666666, "grad_norm": 0.26442974637308586, "learning_rate": 1.582356966178888e-05, "loss": 0.0499, "step": 4160 }, { "epoch": 2.224, "grad_norm": 0.414127192280253, "learning_rate": 1.5620270593251635e-05, "loss": 0.0658, "step": 4170 }, { "epoch": 2.2293333333333334, "grad_norm": 0.19020947170086536, "learning_rate": 1.5418043922768e-05, "loss": 0.049, "step": 4180 }, { "epoch": 2.2346666666666666, "grad_norm": 0.6665493040403534, "learning_rate": 1.5216895958342458e-05, "loss": 0.0557, "step": 4190 }, { "epoch": 2.24, "grad_norm": 0.29018930567992196, "learning_rate": 1.5016832974331724e-05, "loss": 0.0615, "step": 4200 }, { "epoch": 2.2453333333333334, "grad_norm": 0.30389760838584223, "learning_rate": 1.4817861211248996e-05, "loss": 0.0454, "step": 4210 }, { "epoch": 2.2506666666666666, "grad_norm": 0.3766406940656373, "learning_rate": 1.4619986875569247e-05, "loss": 0.0633, "step": 4220 }, { "epoch": 2.2560000000000002, "grad_norm": 0.6415075515189281, "learning_rate": 1.4423216139535734e-05, "loss": 0.0481, "step": 4230 }, { "epoch": 2.2613333333333334, "grad_norm": 0.6637946584956483, "learning_rate": 1.4227555140967402e-05, "loss": 0.0634, "step": 4240 }, { "epoch": 2.2666666666666666, "grad_norm": 0.3492754805668872, "learning_rate": 1.4033009983067452e-05, "loss": 0.0645, "step": 4250 }, { "epoch": 2.2720000000000002, "grad_norm": 0.37699901987157247, "learning_rate": 1.3839586734232906e-05, "loss": 0.0655, "step": 4260 }, { "epoch": 2.2773333333333334, "grad_norm": 0.34133329060586903, "learning_rate": 1.3647291427865416e-05, "loss": 0.0571, "step": 4270 }, { "epoch": 2.2826666666666666, "grad_norm": 1.1788875508934733, "learning_rate": 1.3456130062183003e-05, "loss": 0.0625, "step": 4280 }, { "epoch": 2.288, "grad_norm": 0.5191821144508469, "learning_rate": 1.3266108600032929e-05, "loss": 0.067, "step": 4290 }, { "epoch": 2.2933333333333334, "grad_norm": 0.4879548663602921, "learning_rate": 1.3077232968705805e-05, "loss": 0.054, "step": 4300 }, { "epoch": 2.2986666666666666, "grad_norm": 0.115523689811175, "learning_rate": 1.2889509059750604e-05, "loss": 0.0443, "step": 4310 }, { "epoch": 2.304, "grad_norm": 0.7983656773943594, "learning_rate": 1.2702942728790895e-05, "loss": 0.0974, "step": 4320 }, { "epoch": 2.3093333333333335, "grad_norm": 0.6083637645751251, "learning_rate": 1.2517539795342248e-05, "loss": 0.0598, "step": 4330 }, { "epoch": 2.3146666666666667, "grad_norm": 1.2107979267797886, "learning_rate": 1.2333306042630671e-05, "loss": 0.0624, "step": 4340 }, { "epoch": 2.32, "grad_norm": 0.5222721036882456, "learning_rate": 1.2150247217412186e-05, "loss": 0.0526, "step": 4350 }, { "epoch": 2.3253333333333335, "grad_norm": 0.626929219188131, "learning_rate": 1.1968369029793641e-05, "loss": 0.0469, "step": 4360 }, { "epoch": 2.3306666666666667, "grad_norm": 0.38304135928696675, "learning_rate": 1.178767715305455e-05, "loss": 0.0691, "step": 4370 }, { "epoch": 2.336, "grad_norm": 0.29031307370858644, "learning_rate": 1.160817722347014e-05, "loss": 0.0747, "step": 4380 }, { "epoch": 2.3413333333333335, "grad_norm": 0.5245901565616543, "learning_rate": 1.1429874840135491e-05, "loss": 0.0586, "step": 4390 }, { "epoch": 2.3466666666666667, "grad_norm": 0.3635891295545752, "learning_rate": 1.1252775564791024e-05, "loss": 0.0527, "step": 4400 }, { "epoch": 2.352, "grad_norm": 0.22051862569841724, "learning_rate": 1.1076884921648834e-05, "loss": 0.0598, "step": 4410 }, { "epoch": 2.3573333333333335, "grad_norm": 0.5166259311307704, "learning_rate": 1.0902208397220497e-05, "loss": 0.0441, "step": 4420 }, { "epoch": 2.3626666666666667, "grad_norm": 1.9477950871980625, "learning_rate": 1.0728751440145906e-05, "loss": 0.0553, "step": 4430 }, { "epoch": 2.368, "grad_norm": 0.5326613486573235, "learning_rate": 1.0556519461023301e-05, "loss": 0.0399, "step": 4440 }, { "epoch": 2.3733333333333335, "grad_norm": 0.5638567090415495, "learning_rate": 1.0385517832240471e-05, "loss": 0.0737, "step": 4450 }, { "epoch": 2.3786666666666667, "grad_norm": 0.5647745191571978, "learning_rate": 1.0215751887807228e-05, "loss": 0.0735, "step": 4460 }, { "epoch": 2.384, "grad_norm": 0.9930278443174743, "learning_rate": 1.0047226923189024e-05, "loss": 0.0769, "step": 4470 }, { "epoch": 2.389333333333333, "grad_norm": 0.4743267402333513, "learning_rate": 9.879948195141681e-06, "loss": 0.0656, "step": 4480 }, { "epoch": 2.3946666666666667, "grad_norm": 0.7749005855837098, "learning_rate": 9.713920921547532e-06, "loss": 0.068, "step": 4490 }, { "epoch": 2.4, "grad_norm": 0.511407034632181, "learning_rate": 9.549150281252633e-06, "loss": 0.0552, "step": 4500 }, { "epoch": 2.405333333333333, "grad_norm": 0.5903533539444025, "learning_rate": 9.38564141390514e-06, "loss": 0.0584, "step": 4510 }, { "epoch": 2.4106666666666667, "grad_norm": 0.42910201710777607, "learning_rate": 9.223399419795093e-06, "loss": 0.0479, "step": 4520 }, { "epoch": 2.416, "grad_norm": 0.0971004042837485, "learning_rate": 9.06242935969528e-06, "loss": 0.053, "step": 4530 }, { "epoch": 2.421333333333333, "grad_norm": 0.45485117911988876, "learning_rate": 8.902736254703348e-06, "loss": 0.0641, "step": 4540 }, { "epoch": 2.4266666666666667, "grad_norm": 2.2076761451275373, "learning_rate": 8.744325086085248e-06, "loss": 0.0661, "step": 4550 }, { "epoch": 2.432, "grad_norm": 0.4622826862841789, "learning_rate": 8.587200795119793e-06, "loss": 0.0532, "step": 4560 }, { "epoch": 2.437333333333333, "grad_norm": 0.16297952149426467, "learning_rate": 8.431368282944584e-06, "loss": 0.0663, "step": 4570 }, { "epoch": 2.4426666666666668, "grad_norm": 1.0958630948492523, "learning_rate": 8.276832410403051e-06, "loss": 0.0625, "step": 4580 }, { "epoch": 2.448, "grad_norm": 1.0365957801439403, "learning_rate": 8.123597997892918e-06, "loss": 0.073, "step": 4590 }, { "epoch": 2.453333333333333, "grad_norm": 0.43600610855740984, "learning_rate": 7.971669825215788e-06, "loss": 0.0662, "step": 4600 }, { "epoch": 2.458666666666667, "grad_norm": 1.0381908747129327, "learning_rate": 7.82105263142806e-06, "loss": 0.0592, "step": 4610 }, { "epoch": 2.464, "grad_norm": 0.44420551686346144, "learning_rate": 7.671751114693104e-06, "loss": 0.0877, "step": 4620 }, { "epoch": 2.469333333333333, "grad_norm": 0.49412781691872054, "learning_rate": 7.523769932134739e-06, "loss": 0.0604, "step": 4630 }, { "epoch": 2.474666666666667, "grad_norm": 0.3582068805837128, "learning_rate": 7.377113699691878e-06, "loss": 0.0319, "step": 4640 }, { "epoch": 2.48, "grad_norm": 0.48670663532399294, "learning_rate": 7.2317869919746705e-06, "loss": 0.0466, "step": 4650 }, { "epoch": 2.485333333333333, "grad_norm": 0.36892596799647553, "learning_rate": 7.087794342121723e-06, "loss": 0.0559, "step": 4660 }, { "epoch": 2.490666666666667, "grad_norm": 0.43139777058449874, "learning_rate": 6.945140241658687e-06, "loss": 0.0558, "step": 4670 }, { "epoch": 2.496, "grad_norm": 0.3997941474822688, "learning_rate": 6.803829140358237e-06, "loss": 0.0644, "step": 4680 }, { "epoch": 2.501333333333333, "grad_norm": 0.4765978968393379, "learning_rate": 6.663865446101192e-06, "loss": 0.0429, "step": 4690 }, { "epoch": 2.506666666666667, "grad_norm": 0.24005575735678056, "learning_rate": 6.52525352473905e-06, "loss": 0.0667, "step": 4700 }, { "epoch": 2.512, "grad_norm": 0.19737661570270099, "learning_rate": 6.3879976999578154e-06, "loss": 0.078, "step": 4710 }, { "epoch": 2.517333333333333, "grad_norm": 0.5946389291513183, "learning_rate": 6.252102253143122e-06, "loss": 0.0435, "step": 4720 }, { "epoch": 2.522666666666667, "grad_norm": 0.4309418410900153, "learning_rate": 6.117571423246654e-06, "loss": 0.0553, "step": 4730 }, { "epoch": 2.528, "grad_norm": 0.40276380840706144, "learning_rate": 5.98440940665399e-06, "loss": 0.0455, "step": 4740 }, { "epoch": 2.533333333333333, "grad_norm": 0.4547355508444073, "learning_rate": 5.852620357053651e-06, "loss": 0.0763, "step": 4750 }, { "epoch": 2.538666666666667, "grad_norm": 1.5559124737309162, "learning_rate": 5.722208385307559e-06, "loss": 0.0557, "step": 4760 }, { "epoch": 2.544, "grad_norm": 2.2159656164151675, "learning_rate": 5.593177559322777e-06, "loss": 0.0636, "step": 4770 }, { "epoch": 2.5493333333333332, "grad_norm": 0.5299907192920484, "learning_rate": 5.46553190392467e-06, "loss": 0.0559, "step": 4780 }, { "epoch": 2.554666666666667, "grad_norm": 0.45851150868552254, "learning_rate": 5.33927540073133e-06, "loss": 0.0655, "step": 4790 }, { "epoch": 2.56, "grad_norm": 1.2532179049795076, "learning_rate": 5.214411988029355e-06, "loss": 0.0856, "step": 4800 }, { "epoch": 2.5653333333333332, "grad_norm": 0.24125087248153218, "learning_rate": 5.090945560651073e-06, "loss": 0.0588, "step": 4810 }, { "epoch": 2.570666666666667, "grad_norm": 1.2543061347296967, "learning_rate": 4.9688799698529855e-06, "loss": 0.0473, "step": 4820 }, { "epoch": 2.576, "grad_norm": 1.6372702549514104, "learning_rate": 4.848219023195644e-06, "loss": 0.054, "step": 4830 }, { "epoch": 2.5813333333333333, "grad_norm": 0.5340347762606914, "learning_rate": 4.728966484424912e-06, "loss": 0.0727, "step": 4840 }, { "epoch": 2.586666666666667, "grad_norm": 0.4615445129175439, "learning_rate": 4.611126073354571e-06, "loss": 0.0602, "step": 4850 }, { "epoch": 2.592, "grad_norm": 0.18256213806877458, "learning_rate": 4.494701465750217e-06, "loss": 0.0496, "step": 4860 }, { "epoch": 2.5973333333333333, "grad_norm": 0.3627248309284882, "learning_rate": 4.379696293214696e-06, "loss": 0.0466, "step": 4870 }, { "epoch": 2.602666666666667, "grad_norm": 0.5116929381520542, "learning_rate": 4.2661141430747505e-06, "loss": 0.058, "step": 4880 }, { "epoch": 2.608, "grad_norm": 1.961279089235483, "learning_rate": 4.153958558269189e-06, "loss": 0.0709, "step": 4890 }, { "epoch": 2.6133333333333333, "grad_norm": 0.2652516865968403, "learning_rate": 4.043233037238281e-06, "loss": 0.0883, "step": 4900 }, { "epoch": 2.618666666666667, "grad_norm": 0.3345369298272839, "learning_rate": 3.933941033814736e-06, "loss": 0.0727, "step": 4910 }, { "epoch": 2.624, "grad_norm": 0.4069531312382299, "learning_rate": 3.826085957115888e-06, "loss": 0.0709, "step": 4920 }, { "epoch": 2.6293333333333333, "grad_norm": 0.44074338269507607, "learning_rate": 3.7196711714373945e-06, "loss": 0.0546, "step": 4930 }, { "epoch": 2.634666666666667, "grad_norm": 0.14345006613172576, "learning_rate": 3.6146999961482853e-06, "loss": 0.0583, "step": 4940 }, { "epoch": 2.64, "grad_norm": 0.23138496414280116, "learning_rate": 3.511175705587433e-06, "loss": 0.0574, "step": 4950 }, { "epoch": 2.6453333333333333, "grad_norm": 0.6328853073042866, "learning_rate": 3.4091015289613783e-06, "loss": 0.0535, "step": 4960 }, { "epoch": 2.6506666666666665, "grad_norm": 0.5504082407933, "learning_rate": 3.308480650243662e-06, "loss": 0.0519, "step": 4970 }, { "epoch": 2.656, "grad_norm": 0.19616443344237985, "learning_rate": 3.2093162080754637e-06, "loss": 0.0526, "step": 4980 }, { "epoch": 2.6613333333333333, "grad_norm": 0.461215170098981, "learning_rate": 3.1116112956677046e-06, "loss": 0.0602, "step": 4990 }, { "epoch": 2.6666666666666665, "grad_norm": 1.8846501798104753, "learning_rate": 3.0153689607045845e-06, "loss": 0.0601, "step": 5000 }, { "epoch": 2.672, "grad_norm": 0.3424025958173587, "learning_rate": 2.9205922052484958e-06, "loss": 0.0743, "step": 5010 }, { "epoch": 2.6773333333333333, "grad_norm": 0.6244804934379611, "learning_rate": 2.8272839856463783e-06, "loss": 0.0562, "step": 5020 }, { "epoch": 2.6826666666666665, "grad_norm": 0.14850962993365097, "learning_rate": 2.735447212437531e-06, "loss": 0.0384, "step": 5030 }, { "epoch": 2.6879999999999997, "grad_norm": 0.8456221585244574, "learning_rate": 2.6450847502627884e-06, "loss": 0.0485, "step": 5040 }, { "epoch": 2.6933333333333334, "grad_norm": 0.4925323565284255, "learning_rate": 2.5561994177751737e-06, "loss": 0.0525, "step": 5050 }, { "epoch": 2.6986666666666665, "grad_norm": 0.7245066061467218, "learning_rate": 2.468793987551998e-06, "loss": 0.0571, "step": 5060 }, { "epoch": 2.7039999999999997, "grad_norm": 0.24479364163897654, "learning_rate": 2.3828711860083674e-06, "loss": 0.0528, "step": 5070 }, { "epoch": 2.7093333333333334, "grad_norm": 0.37203599071553595, "learning_rate": 2.2984336933121075e-06, "loss": 0.0431, "step": 5080 }, { "epoch": 2.7146666666666666, "grad_norm": 0.7710207759047643, "learning_rate": 2.2154841433002062e-06, "loss": 0.0523, "step": 5090 }, { "epoch": 2.7199999999999998, "grad_norm": 2.2112180344646197, "learning_rate": 2.134025123396638e-06, "loss": 0.054, "step": 5100 }, { "epoch": 2.7253333333333334, "grad_norm": 0.17811504841347045, "learning_rate": 2.054059174531653e-06, "loss": 0.0686, "step": 5110 }, { "epoch": 2.7306666666666666, "grad_norm": 0.5305752665531933, "learning_rate": 1.9755887910625105e-06, "loss": 0.0542, "step": 5120 }, { "epoch": 2.7359999999999998, "grad_norm": 1.045353213027242, "learning_rate": 1.8986164206957035e-06, "loss": 0.0591, "step": 5130 }, { "epoch": 2.7413333333333334, "grad_norm": 0.6348686436214638, "learning_rate": 1.8231444644105756e-06, "loss": 0.076, "step": 5140 }, { "epoch": 2.7466666666666666, "grad_norm": 0.7779615062887346, "learning_rate": 1.7491752763844293e-06, "loss": 0.0576, "step": 5150 }, { "epoch": 2.752, "grad_norm": 0.47129435842784845, "learning_rate": 1.6767111639191202e-06, "loss": 0.0687, "step": 5160 }, { "epoch": 2.7573333333333334, "grad_norm": 0.6039764330309144, "learning_rate": 1.6057543873690683e-06, "loss": 0.0573, "step": 5170 }, { "epoch": 2.7626666666666666, "grad_norm": 0.3638890765880833, "learning_rate": 1.5363071600707435e-06, "loss": 0.0578, "step": 5180 }, { "epoch": 2.768, "grad_norm": 0.8469588000808255, "learning_rate": 1.4683716482736366e-06, "loss": 0.0698, "step": 5190 }, { "epoch": 2.7733333333333334, "grad_norm": 0.4234650111495255, "learning_rate": 1.4019499710726913e-06, "loss": 0.0594, "step": 5200 }, { "epoch": 2.7786666666666666, "grad_norm": 0.19928827666209747, "learning_rate": 1.3370442003421913e-06, "loss": 0.0645, "step": 5210 }, { "epoch": 2.784, "grad_norm": 0.7231990605502977, "learning_rate": 1.2736563606711382e-06, "loss": 0.1017, "step": 5220 }, { "epoch": 2.7893333333333334, "grad_norm": 0.21894469123073132, "learning_rate": 1.2117884293001258e-06, "loss": 0.0622, "step": 5230 }, { "epoch": 2.7946666666666666, "grad_norm": 0.20936829264221712, "learning_rate": 1.1514423360595938e-06, "loss": 0.0401, "step": 5240 }, { "epoch": 2.8, "grad_norm": 1.4163044797463045, "learning_rate": 1.0926199633097157e-06, "loss": 0.0639, "step": 5250 }, { "epoch": 2.8053333333333335, "grad_norm": 0.44692680466953544, "learning_rate": 1.0353231458816337e-06, "loss": 0.0525, "step": 5260 }, { "epoch": 2.8106666666666666, "grad_norm": 0.4564041065218228, "learning_rate": 9.795536710202169e-07, "loss": 0.0647, "step": 5270 }, { "epoch": 2.816, "grad_norm": 0.32168180370188015, "learning_rate": 9.253132783283547e-07, "loss": 0.0967, "step": 5280 }, { "epoch": 2.8213333333333335, "grad_norm": 0.5640580315710545, "learning_rate": 8.726036597126619e-07, "loss": 0.049, "step": 5290 }, { "epoch": 2.8266666666666667, "grad_norm": 0.5547215107583603, "learning_rate": 8.214264593307098e-07, "loss": 0.0496, "step": 5300 }, { "epoch": 2.832, "grad_norm": 0.5883978301371552, "learning_rate": 7.717832735397335e-07, "loss": 0.0596, "step": 5310 }, { "epoch": 2.8373333333333335, "grad_norm": 0.3344147832155162, "learning_rate": 7.236756508468611e-07, "loss": 0.0735, "step": 5320 }, { "epoch": 2.8426666666666667, "grad_norm": 0.910638045051187, "learning_rate": 6.771050918607913e-07, "loss": 0.0389, "step": 5330 }, { "epoch": 2.848, "grad_norm": 0.29075901850290997, "learning_rate": 6.3207304924498e-07, "loss": 0.0546, "step": 5340 }, { "epoch": 2.8533333333333335, "grad_norm": 0.5411823284306373, "learning_rate": 5.885809276723608e-07, "loss": 0.0581, "step": 5350 }, { "epoch": 2.8586666666666667, "grad_norm": 0.5813577267027392, "learning_rate": 5.466300837814797e-07, "loss": 0.0645, "step": 5360 }, { "epoch": 2.864, "grad_norm": 0.5593223476254932, "learning_rate": 5.062218261342122e-07, "loss": 0.0559, "step": 5370 }, { "epoch": 2.8693333333333335, "grad_norm": 0.26759185453987694, "learning_rate": 4.673574151749571e-07, "loss": 0.0425, "step": 5380 }, { "epoch": 2.8746666666666667, "grad_norm": 1.3523520408428589, "learning_rate": 4.300380631912737e-07, "loss": 0.0542, "step": 5390 }, { "epoch": 2.88, "grad_norm": 0.47767990104984714, "learning_rate": 3.9426493427611177e-07, "loss": 0.0616, "step": 5400 }, { "epoch": 2.8853333333333335, "grad_norm": 0.2360454372832941, "learning_rate": 3.600391442914741e-07, "loss": 0.0676, "step": 5410 }, { "epoch": 2.8906666666666667, "grad_norm": 0.32952120140551255, "learning_rate": 3.2736176083362216e-07, "loss": 0.0864, "step": 5420 }, { "epoch": 2.896, "grad_norm": 0.33183342831190527, "learning_rate": 2.962338031997691e-07, "loss": 0.0438, "step": 5430 }, { "epoch": 2.9013333333333335, "grad_norm": 0.2688036269173269, "learning_rate": 2.666562423562946e-07, "loss": 0.0572, "step": 5440 }, { "epoch": 2.9066666666666667, "grad_norm": 0.8199146727952845, "learning_rate": 2.386300009084408e-07, "loss": 0.0508, "step": 5450 }, { "epoch": 2.912, "grad_norm": 0.32763708341044534, "learning_rate": 2.1215595307154667e-07, "loss": 0.0557, "step": 5460 }, { "epoch": 2.9173333333333336, "grad_norm": 0.5567473180263641, "learning_rate": 1.872349246437699e-07, "loss": 0.0435, "step": 5470 }, { "epoch": 2.9226666666666667, "grad_norm": 0.14173431158043928, "learning_rate": 1.6386769298034065e-07, "loss": 0.0529, "step": 5480 }, { "epoch": 2.928, "grad_norm": 0.48646244206332484, "learning_rate": 1.420549869693033e-07, "loss": 0.0563, "step": 5490 }, { "epoch": 2.9333333333333336, "grad_norm": 0.16712907626863704, "learning_rate": 1.2179748700879012e-07, "loss": 0.057, "step": 5500 }, { "epoch": 2.9386666666666668, "grad_norm": 0.7171661277653485, "learning_rate": 1.0309582498577719e-07, "loss": 0.0608, "step": 5510 }, { "epoch": 2.944, "grad_norm": 0.6387695392786391, "learning_rate": 8.595058425640013e-08, "loss": 0.0755, "step": 5520 }, { "epoch": 2.9493333333333336, "grad_norm": 0.7904478835880077, "learning_rate": 7.036229962774089e-08, "loss": 0.05, "step": 5530 }, { "epoch": 2.9546666666666668, "grad_norm": 0.22945181555027688, "learning_rate": 5.633145734114664e-08, "loss": 0.0681, "step": 5540 }, { "epoch": 2.96, "grad_norm": 0.24846540953180968, "learning_rate": 4.385849505708084e-08, "loss": 0.04, "step": 5550 }, { "epoch": 2.9653333333333336, "grad_norm": 0.8418011776530022, "learning_rate": 3.294380184143964e-08, "loss": 0.0693, "step": 5560 }, { "epoch": 2.970666666666667, "grad_norm": 0.38276908160892953, "learning_rate": 2.358771815344496e-08, "loss": 0.048, "step": 5570 }, { "epoch": 2.976, "grad_norm": 0.2736627490173404, "learning_rate": 1.5790535835003008e-08, "loss": 0.039, "step": 5580 }, { "epoch": 2.981333333333333, "grad_norm": 0.33739549368789956, "learning_rate": 9.552498101611518e-09, "loss": 0.0487, "step": 5590 }, { "epoch": 2.986666666666667, "grad_norm": 0.3673566199344695, "learning_rate": 4.873799534788059e-09, "loss": 0.0642, "step": 5600 }, { "epoch": 2.992, "grad_norm": 0.08486860544908555, "learning_rate": 1.7545860759693445e-09, "loss": 0.0772, "step": 5610 }, { "epoch": 2.997333333333333, "grad_norm": 0.38876848007417136, "learning_rate": 1.9495502197042214e-10, "loss": 0.0518, "step": 5620 }, { "epoch": 3.0, "step": 5625, "total_flos": 676226370502656.0, "train_loss": 0.08742177106274499, "train_runtime": 51369.7181, "train_samples_per_second": 0.876, "train_steps_per_second": 0.11 } ], "logging_steps": 10, "max_steps": 5625, "num_input_tokens_seen": 0, "num_train_epochs": 3, "save_steps": 500, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 676226370502656.0, "train_batch_size": 1, "trial_name": null, "trial_params": null }