m2m_trial1 / trainer_state.json
ahmadmwali's picture
End of training
ceddb6b verified
{
"best_global_step": 37500,
"best_metric": 6.104158401489258,
"best_model_checkpoint": "/work/HauSeq/train_results/results_bart/m2m100_418M/checkpoint-37500",
"epoch": 3.0,
"eval_steps": 500,
"global_step": 37500,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.004,
"grad_norm": 0.15111833810806274,
"learning_rate": 0.0004993333333333334,
"loss": 7.4704,
"step": 50
},
{
"epoch": 0.008,
"grad_norm": 0.10599665343761444,
"learning_rate": 0.0004986666666666667,
"loss": 6.3094,
"step": 100
},
{
"epoch": 0.012,
"grad_norm": 0.14012525975704193,
"learning_rate": 0.000498,
"loss": 6.2822,
"step": 150
},
{
"epoch": 0.016,
"grad_norm": 0.14213086664676666,
"learning_rate": 0.0004973333333333334,
"loss": 6.2307,
"step": 200
},
{
"epoch": 0.02,
"grad_norm": 0.18055230379104614,
"learning_rate": 0.0004966666666666666,
"loss": 6.2147,
"step": 250
},
{
"epoch": 0.024,
"grad_norm": 0.07245520502328873,
"learning_rate": 0.000496,
"loss": 6.2251,
"step": 300
},
{
"epoch": 0.028,
"grad_norm": 0.08785891532897949,
"learning_rate": 0.0004953333333333334,
"loss": 6.1902,
"step": 350
},
{
"epoch": 0.032,
"grad_norm": 0.08970518410205841,
"learning_rate": 0.0004946666666666667,
"loss": 6.209,
"step": 400
},
{
"epoch": 0.036,
"grad_norm": 0.11677275598049164,
"learning_rate": 0.000494,
"loss": 6.2102,
"step": 450
},
{
"epoch": 0.04,
"grad_norm": 0.09981893748044968,
"learning_rate": 0.0004933333333333334,
"loss": 6.2013,
"step": 500
},
{
"epoch": 0.044,
"grad_norm": 0.0844813659787178,
"learning_rate": 0.0004926666666666666,
"loss": 6.2018,
"step": 550
},
{
"epoch": 0.048,
"grad_norm": 0.08895286917686462,
"learning_rate": 0.000492,
"loss": 6.1919,
"step": 600
},
{
"epoch": 0.052,
"grad_norm": 0.0739683285355568,
"learning_rate": 0.0004913333333333333,
"loss": 6.1845,
"step": 650
},
{
"epoch": 0.056,
"grad_norm": 0.07487305998802185,
"learning_rate": 0.0004906666666666667,
"loss": 6.1886,
"step": 700
},
{
"epoch": 0.06,
"grad_norm": 0.09009674936532974,
"learning_rate": 0.00049,
"loss": 6.1493,
"step": 750
},
{
"epoch": 0.064,
"grad_norm": 0.09931090474128723,
"learning_rate": 0.0004893333333333334,
"loss": 6.2109,
"step": 800
},
{
"epoch": 0.068,
"grad_norm": 0.08153345435857773,
"learning_rate": 0.0004886666666666667,
"loss": 6.1905,
"step": 850
},
{
"epoch": 0.072,
"grad_norm": 0.08656804263591766,
"learning_rate": 0.000488,
"loss": 6.1651,
"step": 900
},
{
"epoch": 0.076,
"grad_norm": 0.0708136335015297,
"learning_rate": 0.0004873333333333333,
"loss": 6.1753,
"step": 950
},
{
"epoch": 0.08,
"grad_norm": 0.06123047322034836,
"learning_rate": 0.0004866666666666667,
"loss": 6.1678,
"step": 1000
},
{
"epoch": 0.084,
"grad_norm": 0.08824601769447327,
"learning_rate": 0.000486,
"loss": 6.1934,
"step": 1050
},
{
"epoch": 0.088,
"grad_norm": 0.11263756453990936,
"learning_rate": 0.00048533333333333333,
"loss": 6.2086,
"step": 1100
},
{
"epoch": 0.092,
"grad_norm": 0.11431964486837387,
"learning_rate": 0.0004846666666666667,
"loss": 6.1749,
"step": 1150
},
{
"epoch": 0.096,
"grad_norm": 0.13553941249847412,
"learning_rate": 0.000484,
"loss": 6.1974,
"step": 1200
},
{
"epoch": 0.1,
"grad_norm": 0.06862557679414749,
"learning_rate": 0.00048333333333333334,
"loss": 6.1791,
"step": 1250
},
{
"epoch": 0.104,
"grad_norm": 0.0902315229177475,
"learning_rate": 0.00048266666666666667,
"loss": 6.1682,
"step": 1300
},
{
"epoch": 0.108,
"grad_norm": 0.07128579914569855,
"learning_rate": 0.000482,
"loss": 6.1612,
"step": 1350
},
{
"epoch": 0.112,
"grad_norm": 0.10720423609018326,
"learning_rate": 0.00048133333333333334,
"loss": 6.191,
"step": 1400
},
{
"epoch": 0.116,
"grad_norm": 0.08612173795700073,
"learning_rate": 0.0004806666666666667,
"loss": 6.1744,
"step": 1450
},
{
"epoch": 0.12,
"grad_norm": 0.0715956911444664,
"learning_rate": 0.00048,
"loss": 6.1456,
"step": 1500
},
{
"epoch": 0.124,
"grad_norm": 0.09471707791090012,
"learning_rate": 0.00047933333333333335,
"loss": 6.1589,
"step": 1550
},
{
"epoch": 0.128,
"grad_norm": 0.07703852653503418,
"learning_rate": 0.0004786666666666667,
"loss": 6.148,
"step": 1600
},
{
"epoch": 0.132,
"grad_norm": 0.07092257589101791,
"learning_rate": 0.00047799999999999996,
"loss": 6.1836,
"step": 1650
},
{
"epoch": 0.136,
"grad_norm": 0.07298697531223297,
"learning_rate": 0.00047733333333333335,
"loss": 6.1829,
"step": 1700
},
{
"epoch": 0.14,
"grad_norm": 0.14318957924842834,
"learning_rate": 0.0004766666666666667,
"loss": 6.1722,
"step": 1750
},
{
"epoch": 0.144,
"grad_norm": 0.20574501156806946,
"learning_rate": 0.00047599999999999997,
"loss": 6.1845,
"step": 1800
},
{
"epoch": 0.148,
"grad_norm": 0.07953138649463654,
"learning_rate": 0.00047533333333333336,
"loss": 6.2194,
"step": 1850
},
{
"epoch": 0.152,
"grad_norm": 0.09567399322986603,
"learning_rate": 0.0004746666666666667,
"loss": 6.1865,
"step": 1900
},
{
"epoch": 0.156,
"grad_norm": 0.1626185178756714,
"learning_rate": 0.000474,
"loss": 6.17,
"step": 1950
},
{
"epoch": 0.16,
"grad_norm": 0.06928124278783798,
"learning_rate": 0.00047333333333333336,
"loss": 6.1823,
"step": 2000
},
{
"epoch": 0.164,
"grad_norm": 0.09775864332914352,
"learning_rate": 0.0004726666666666667,
"loss": 6.1626,
"step": 2050
},
{
"epoch": 0.168,
"grad_norm": 0.10521150380373001,
"learning_rate": 0.000472,
"loss": 6.1514,
"step": 2100
},
{
"epoch": 0.172,
"grad_norm": 0.13371282815933228,
"learning_rate": 0.0004713333333333333,
"loss": 6.1904,
"step": 2150
},
{
"epoch": 0.176,
"grad_norm": 0.08873261511325836,
"learning_rate": 0.0004706666666666667,
"loss": 6.1757,
"step": 2200
},
{
"epoch": 0.18,
"grad_norm": 0.07888400554656982,
"learning_rate": 0.00047,
"loss": 6.1845,
"step": 2250
},
{
"epoch": 0.184,
"grad_norm": 0.08594951033592224,
"learning_rate": 0.0004693333333333333,
"loss": 6.166,
"step": 2300
},
{
"epoch": 0.188,
"grad_norm": 0.06680227816104889,
"learning_rate": 0.0004686666666666667,
"loss": 6.1651,
"step": 2350
},
{
"epoch": 0.192,
"grad_norm": 0.09215427190065384,
"learning_rate": 0.00046800000000000005,
"loss": 6.1571,
"step": 2400
},
{
"epoch": 0.196,
"grad_norm": 0.09930161386728287,
"learning_rate": 0.0004673333333333333,
"loss": 6.1787,
"step": 2450
},
{
"epoch": 0.2,
"grad_norm": 0.1222386509180069,
"learning_rate": 0.00046666666666666666,
"loss": 6.1653,
"step": 2500
},
{
"epoch": 0.204,
"grad_norm": 0.08915869891643524,
"learning_rate": 0.00046600000000000005,
"loss": 6.1827,
"step": 2550
},
{
"epoch": 0.208,
"grad_norm": 0.0821617990732193,
"learning_rate": 0.00046533333333333333,
"loss": 6.1431,
"step": 2600
},
{
"epoch": 0.212,
"grad_norm": 0.07424184679985046,
"learning_rate": 0.00046466666666666667,
"loss": 6.1663,
"step": 2650
},
{
"epoch": 0.216,
"grad_norm": 0.093514584004879,
"learning_rate": 0.00046400000000000006,
"loss": 6.1522,
"step": 2700
},
{
"epoch": 0.22,
"grad_norm": 0.06537146121263504,
"learning_rate": 0.00046333333333333334,
"loss": 6.1495,
"step": 2750
},
{
"epoch": 0.224,
"grad_norm": 0.0883859172463417,
"learning_rate": 0.0004626666666666667,
"loss": 6.1568,
"step": 2800
},
{
"epoch": 0.228,
"grad_norm": 0.10238439589738846,
"learning_rate": 0.000462,
"loss": 6.1209,
"step": 2850
},
{
"epoch": 0.232,
"grad_norm": 0.10340619832277298,
"learning_rate": 0.00046133333333333334,
"loss": 6.1822,
"step": 2900
},
{
"epoch": 0.236,
"grad_norm": 0.07340220361948013,
"learning_rate": 0.0004606666666666667,
"loss": 6.1529,
"step": 2950
},
{
"epoch": 0.24,
"grad_norm": 0.09363378584384918,
"learning_rate": 0.00046,
"loss": 6.1395,
"step": 3000
},
{
"epoch": 0.244,
"grad_norm": 0.09044912457466125,
"learning_rate": 0.00045933333333333335,
"loss": 6.1261,
"step": 3050
},
{
"epoch": 0.248,
"grad_norm": 0.12037273496389389,
"learning_rate": 0.0004586666666666667,
"loss": 6.1727,
"step": 3100
},
{
"epoch": 0.252,
"grad_norm": 0.07814592868089676,
"learning_rate": 0.000458,
"loss": 6.1391,
"step": 3150
},
{
"epoch": 0.256,
"grad_norm": 0.15670627355575562,
"learning_rate": 0.0004573333333333333,
"loss": 6.1476,
"step": 3200
},
{
"epoch": 0.26,
"grad_norm": 0.07286332547664642,
"learning_rate": 0.0004566666666666667,
"loss": 6.1886,
"step": 3250
},
{
"epoch": 0.264,
"grad_norm": 0.10322409868240356,
"learning_rate": 0.000456,
"loss": 6.1476,
"step": 3300
},
{
"epoch": 0.268,
"grad_norm": 0.07703418284654617,
"learning_rate": 0.0004553333333333333,
"loss": 6.1807,
"step": 3350
},
{
"epoch": 0.272,
"grad_norm": 0.08985728770494461,
"learning_rate": 0.0004546666666666667,
"loss": 6.1429,
"step": 3400
},
{
"epoch": 0.276,
"grad_norm": 0.07321898639202118,
"learning_rate": 0.00045400000000000003,
"loss": 6.1425,
"step": 3450
},
{
"epoch": 0.28,
"grad_norm": 0.07307059317827225,
"learning_rate": 0.0004533333333333333,
"loss": 6.1394,
"step": 3500
},
{
"epoch": 0.284,
"grad_norm": 0.09408614039421082,
"learning_rate": 0.00045266666666666665,
"loss": 6.1484,
"step": 3550
},
{
"epoch": 0.288,
"grad_norm": 0.07992828637361526,
"learning_rate": 0.00045200000000000004,
"loss": 6.1524,
"step": 3600
},
{
"epoch": 0.292,
"grad_norm": 0.09388066828250885,
"learning_rate": 0.0004513333333333333,
"loss": 6.1318,
"step": 3650
},
{
"epoch": 0.296,
"grad_norm": 0.09913929551839828,
"learning_rate": 0.00045066666666666665,
"loss": 6.1541,
"step": 3700
},
{
"epoch": 0.3,
"grad_norm": 0.10324312001466751,
"learning_rate": 0.00045000000000000004,
"loss": 6.1454,
"step": 3750
},
{
"epoch": 0.304,
"grad_norm": 0.11983419209718704,
"learning_rate": 0.0004493333333333333,
"loss": 6.1458,
"step": 3800
},
{
"epoch": 0.308,
"grad_norm": 0.091062031686306,
"learning_rate": 0.00044866666666666666,
"loss": 6.1373,
"step": 3850
},
{
"epoch": 0.312,
"grad_norm": 0.08820809423923492,
"learning_rate": 0.000448,
"loss": 6.1678,
"step": 3900
},
{
"epoch": 0.316,
"grad_norm": 0.08166229724884033,
"learning_rate": 0.0004473333333333334,
"loss": 6.1778,
"step": 3950
},
{
"epoch": 0.32,
"grad_norm": 0.06870188564062119,
"learning_rate": 0.00044666666666666666,
"loss": 6.1663,
"step": 4000
},
{
"epoch": 0.324,
"grad_norm": 0.09107459336519241,
"learning_rate": 0.000446,
"loss": 6.1304,
"step": 4050
},
{
"epoch": 0.328,
"grad_norm": 0.07417737692594528,
"learning_rate": 0.0004453333333333334,
"loss": 6.1463,
"step": 4100
},
{
"epoch": 0.332,
"grad_norm": 0.08674164116382599,
"learning_rate": 0.00044466666666666667,
"loss": 6.1441,
"step": 4150
},
{
"epoch": 0.336,
"grad_norm": 0.08935794979333878,
"learning_rate": 0.000444,
"loss": 6.1451,
"step": 4200
},
{
"epoch": 0.34,
"grad_norm": 0.10006813704967499,
"learning_rate": 0.00044333333333333334,
"loss": 6.1274,
"step": 4250
},
{
"epoch": 0.344,
"grad_norm": 0.08198122680187225,
"learning_rate": 0.0004426666666666667,
"loss": 6.1582,
"step": 4300
},
{
"epoch": 0.348,
"grad_norm": 0.07550941407680511,
"learning_rate": 0.000442,
"loss": 6.1722,
"step": 4350
},
{
"epoch": 0.352,
"grad_norm": 0.08511735498905182,
"learning_rate": 0.00044133333333333335,
"loss": 6.152,
"step": 4400
},
{
"epoch": 0.356,
"grad_norm": 0.09110074490308762,
"learning_rate": 0.0004406666666666667,
"loss": 6.1193,
"step": 4450
},
{
"epoch": 0.36,
"grad_norm": 0.07546434551477432,
"learning_rate": 0.0004400133333333333,
"loss": 6.1395,
"step": 4500
},
{
"epoch": 0.364,
"grad_norm": 0.09962159395217896,
"learning_rate": 0.00043934666666666666,
"loss": 6.1888,
"step": 4550
},
{
"epoch": 0.368,
"grad_norm": 0.07051780074834824,
"learning_rate": 0.00043868000000000005,
"loss": 6.1612,
"step": 4600
},
{
"epoch": 0.372,
"grad_norm": 0.07798469066619873,
"learning_rate": 0.00043801333333333333,
"loss": 6.1557,
"step": 4650
},
{
"epoch": 0.376,
"grad_norm": 0.05867563560605049,
"learning_rate": 0.00043734666666666666,
"loss": 6.1663,
"step": 4700
},
{
"epoch": 0.38,
"grad_norm": 0.14950589835643768,
"learning_rate": 0.00043668,
"loss": 6.1226,
"step": 4750
},
{
"epoch": 0.384,
"grad_norm": 0.12187950313091278,
"learning_rate": 0.00043601333333333334,
"loss": 6.1632,
"step": 4800
},
{
"epoch": 0.388,
"grad_norm": 0.11106488108634949,
"learning_rate": 0.00043534666666666667,
"loss": 6.1484,
"step": 4850
},
{
"epoch": 0.392,
"grad_norm": 0.1503313034772873,
"learning_rate": 0.00043468,
"loss": 6.1384,
"step": 4900
},
{
"epoch": 0.396,
"grad_norm": 0.10088635236024857,
"learning_rate": 0.00043401333333333334,
"loss": 6.1283,
"step": 4950
},
{
"epoch": 0.4,
"grad_norm": 0.0795908197760582,
"learning_rate": 0.0004333466666666667,
"loss": 6.1376,
"step": 5000
},
{
"epoch": 0.404,
"grad_norm": 0.10563118010759354,
"learning_rate": 0.00043268,
"loss": 6.1557,
"step": 5050
},
{
"epoch": 0.408,
"grad_norm": 0.1979999989271164,
"learning_rate": 0.00043201333333333335,
"loss": 6.1639,
"step": 5100
},
{
"epoch": 0.412,
"grad_norm": 0.0887756422162056,
"learning_rate": 0.0004313466666666667,
"loss": 6.137,
"step": 5150
},
{
"epoch": 0.416,
"grad_norm": 0.16747820377349854,
"learning_rate": 0.00043068,
"loss": 6.1254,
"step": 5200
},
{
"epoch": 0.42,
"grad_norm": 0.08073163777589798,
"learning_rate": 0.00043001333333333335,
"loss": 6.1204,
"step": 5250
},
{
"epoch": 0.424,
"grad_norm": 0.06886740028858185,
"learning_rate": 0.0004293466666666667,
"loss": 6.1311,
"step": 5300
},
{
"epoch": 0.428,
"grad_norm": 0.15906837582588196,
"learning_rate": 0.00042868,
"loss": 6.1442,
"step": 5350
},
{
"epoch": 0.432,
"grad_norm": 0.07678397744894028,
"learning_rate": 0.00042801333333333336,
"loss": 6.1534,
"step": 5400
},
{
"epoch": 0.436,
"grad_norm": 0.2054271250963211,
"learning_rate": 0.00042734666666666664,
"loss": 6.1425,
"step": 5450
},
{
"epoch": 0.44,
"grad_norm": 0.149984672665596,
"learning_rate": 0.00042668000000000003,
"loss": 6.1487,
"step": 5500
},
{
"epoch": 0.444,
"grad_norm": 0.08148360252380371,
"learning_rate": 0.00042601333333333336,
"loss": 6.1746,
"step": 5550
},
{
"epoch": 0.448,
"grad_norm": 0.07742880284786224,
"learning_rate": 0.00042534666666666664,
"loss": 6.1746,
"step": 5600
},
{
"epoch": 0.452,
"grad_norm": 0.10634702444076538,
"learning_rate": 0.00042468000000000003,
"loss": 6.1231,
"step": 5650
},
{
"epoch": 0.456,
"grad_norm": 0.11112518608570099,
"learning_rate": 0.00042401333333333337,
"loss": 6.153,
"step": 5700
},
{
"epoch": 0.46,
"grad_norm": 0.0973384752869606,
"learning_rate": 0.00042334666666666665,
"loss": 6.1404,
"step": 5750
},
{
"epoch": 0.464,
"grad_norm": 0.08638755977153778,
"learning_rate": 0.00042268,
"loss": 6.1467,
"step": 5800
},
{
"epoch": 0.468,
"grad_norm": 0.08899478614330292,
"learning_rate": 0.0004220133333333334,
"loss": 6.139,
"step": 5850
},
{
"epoch": 0.472,
"grad_norm": 0.06328801065683365,
"learning_rate": 0.00042134666666666666,
"loss": 6.1514,
"step": 5900
},
{
"epoch": 0.476,
"grad_norm": 0.11311358958482742,
"learning_rate": 0.00042068,
"loss": 6.1375,
"step": 5950
},
{
"epoch": 0.48,
"grad_norm": 0.0831475779414177,
"learning_rate": 0.0004200133333333334,
"loss": 6.1443,
"step": 6000
},
{
"epoch": 0.484,
"grad_norm": 0.07106803357601166,
"learning_rate": 0.00041934666666666666,
"loss": 6.1428,
"step": 6050
},
{
"epoch": 0.488,
"grad_norm": 0.08456984907388687,
"learning_rate": 0.00041868,
"loss": 6.1388,
"step": 6100
},
{
"epoch": 0.492,
"grad_norm": 0.11499563604593277,
"learning_rate": 0.00041801333333333333,
"loss": 6.1564,
"step": 6150
},
{
"epoch": 0.496,
"grad_norm": 0.10118154436349869,
"learning_rate": 0.00041734666666666667,
"loss": 6.1476,
"step": 6200
},
{
"epoch": 0.5,
"grad_norm": 0.0972524881362915,
"learning_rate": 0.00041668,
"loss": 6.1412,
"step": 6250
},
{
"epoch": 0.504,
"grad_norm": 0.14094218611717224,
"learning_rate": 0.00041601333333333334,
"loss": 6.1403,
"step": 6300
},
{
"epoch": 0.508,
"grad_norm": 0.12434449046850204,
"learning_rate": 0.00041534666666666667,
"loss": 6.1494,
"step": 6350
},
{
"epoch": 0.512,
"grad_norm": 0.10952635854482651,
"learning_rate": 0.00041468,
"loss": 6.1447,
"step": 6400
},
{
"epoch": 0.516,
"grad_norm": 0.09460467845201492,
"learning_rate": 0.00041401333333333334,
"loss": 6.123,
"step": 6450
},
{
"epoch": 0.52,
"grad_norm": 0.06894519180059433,
"learning_rate": 0.0004133466666666666,
"loss": 6.1493,
"step": 6500
},
{
"epoch": 0.524,
"grad_norm": 0.09508401900529861,
"learning_rate": 0.00041268,
"loss": 6.1648,
"step": 6550
},
{
"epoch": 0.528,
"grad_norm": 0.07437499612569809,
"learning_rate": 0.00041201333333333335,
"loss": 6.1437,
"step": 6600
},
{
"epoch": 0.532,
"grad_norm": 0.07906949520111084,
"learning_rate": 0.0004113466666666667,
"loss": 6.1435,
"step": 6650
},
{
"epoch": 0.536,
"grad_norm": 0.07966592907905579,
"learning_rate": 0.00041068,
"loss": 6.1877,
"step": 6700
},
{
"epoch": 0.54,
"grad_norm": 0.09384776651859283,
"learning_rate": 0.00041001333333333335,
"loss": 6.1373,
"step": 6750
},
{
"epoch": 0.544,
"grad_norm": 0.07239983975887299,
"learning_rate": 0.00040936,
"loss": 6.1468,
"step": 6800
},
{
"epoch": 0.548,
"grad_norm": 0.07488434761762619,
"learning_rate": 0.0004086933333333334,
"loss": 6.1589,
"step": 6850
},
{
"epoch": 0.552,
"grad_norm": 0.14272339642047882,
"learning_rate": 0.00040804000000000003,
"loss": 6.1341,
"step": 6900
},
{
"epoch": 0.556,
"grad_norm": 0.09093008935451508,
"learning_rate": 0.0004073733333333333,
"loss": 6.1015,
"step": 6950
},
{
"epoch": 0.56,
"grad_norm": 0.08918365091085434,
"learning_rate": 0.00040670666666666665,
"loss": 6.146,
"step": 7000
},
{
"epoch": 0.564,
"grad_norm": 0.07856575399637222,
"learning_rate": 0.00040604000000000004,
"loss": 6.1244,
"step": 7050
},
{
"epoch": 0.568,
"grad_norm": 0.09512730687856674,
"learning_rate": 0.0004053733333333333,
"loss": 6.1283,
"step": 7100
},
{
"epoch": 0.572,
"grad_norm": 0.07369113713502884,
"learning_rate": 0.00040470666666666665,
"loss": 6.1688,
"step": 7150
},
{
"epoch": 0.576,
"grad_norm": 0.07967466115951538,
"learning_rate": 0.00040404000000000004,
"loss": 6.1546,
"step": 7200
},
{
"epoch": 0.58,
"grad_norm": 0.13300922513008118,
"learning_rate": 0.0004033733333333333,
"loss": 6.1383,
"step": 7250
},
{
"epoch": 0.584,
"grad_norm": 0.06858179718255997,
"learning_rate": 0.00040270666666666666,
"loss": 6.1145,
"step": 7300
},
{
"epoch": 0.588,
"grad_norm": 0.10064101219177246,
"learning_rate": 0.00040204,
"loss": 6.148,
"step": 7350
},
{
"epoch": 0.592,
"grad_norm": 0.09580527245998383,
"learning_rate": 0.0004013733333333334,
"loss": 6.156,
"step": 7400
},
{
"epoch": 0.596,
"grad_norm": 0.08076522499322891,
"learning_rate": 0.00040070666666666666,
"loss": 6.144,
"step": 7450
},
{
"epoch": 0.6,
"grad_norm": 0.12374091148376465,
"learning_rate": 0.00040004,
"loss": 6.1405,
"step": 7500
},
{
"epoch": 0.604,
"grad_norm": 0.06508974730968475,
"learning_rate": 0.0003993733333333334,
"loss": 6.1555,
"step": 7550
},
{
"epoch": 0.608,
"grad_norm": 0.07901404798030853,
"learning_rate": 0.00039870666666666667,
"loss": 6.0808,
"step": 7600
},
{
"epoch": 0.612,
"grad_norm": 0.08288046717643738,
"learning_rate": 0.00039804,
"loss": 6.1548,
"step": 7650
},
{
"epoch": 0.616,
"grad_norm": 0.07879684120416641,
"learning_rate": 0.00039737333333333334,
"loss": 6.1338,
"step": 7700
},
{
"epoch": 0.62,
"grad_norm": 0.08465221524238586,
"learning_rate": 0.0003967066666666667,
"loss": 6.1352,
"step": 7750
},
{
"epoch": 0.624,
"grad_norm": 0.0765002891421318,
"learning_rate": 0.00039604,
"loss": 6.1381,
"step": 7800
},
{
"epoch": 0.628,
"grad_norm": 0.08091587573289871,
"learning_rate": 0.00039537333333333334,
"loss": 6.1457,
"step": 7850
},
{
"epoch": 0.632,
"grad_norm": 0.10334917157888412,
"learning_rate": 0.0003947066666666667,
"loss": 6.1095,
"step": 7900
},
{
"epoch": 0.636,
"grad_norm": 0.0988382026553154,
"learning_rate": 0.00039404,
"loss": 6.1413,
"step": 7950
},
{
"epoch": 0.64,
"grad_norm": 0.08421158045530319,
"learning_rate": 0.00039337333333333335,
"loss": 6.1521,
"step": 8000
},
{
"epoch": 0.644,
"grad_norm": 0.08831362426280975,
"learning_rate": 0.00039270666666666663,
"loss": 6.1557,
"step": 8050
},
{
"epoch": 0.648,
"grad_norm": 0.0793856680393219,
"learning_rate": 0.00039204,
"loss": 6.1006,
"step": 8100
},
{
"epoch": 0.652,
"grad_norm": 0.0659928023815155,
"learning_rate": 0.00039137333333333336,
"loss": 6.1458,
"step": 8150
},
{
"epoch": 0.656,
"grad_norm": 0.08071266114711761,
"learning_rate": 0.00039070666666666664,
"loss": 6.0934,
"step": 8200
},
{
"epoch": 0.66,
"grad_norm": 0.10758322477340698,
"learning_rate": 0.00039004,
"loss": 6.1518,
"step": 8250
},
{
"epoch": 0.664,
"grad_norm": 0.09979259222745895,
"learning_rate": 0.00038937333333333336,
"loss": 6.1468,
"step": 8300
},
{
"epoch": 0.668,
"grad_norm": 0.08539041876792908,
"learning_rate": 0.00038870666666666664,
"loss": 6.1092,
"step": 8350
},
{
"epoch": 0.672,
"grad_norm": 0.09235892444849014,
"learning_rate": 0.00038804,
"loss": 6.1325,
"step": 8400
},
{
"epoch": 0.676,
"grad_norm": 0.0879632756114006,
"learning_rate": 0.00038737333333333337,
"loss": 6.1443,
"step": 8450
},
{
"epoch": 0.68,
"grad_norm": 0.09954622387886047,
"learning_rate": 0.00038670666666666665,
"loss": 6.1414,
"step": 8500
},
{
"epoch": 0.684,
"grad_norm": 0.0783805325627327,
"learning_rate": 0.00038604,
"loss": 6.1242,
"step": 8550
},
{
"epoch": 0.688,
"grad_norm": 0.08509062975645065,
"learning_rate": 0.00038537333333333337,
"loss": 6.1496,
"step": 8600
},
{
"epoch": 0.692,
"grad_norm": 0.08029591292142868,
"learning_rate": 0.00038470666666666665,
"loss": 6.1186,
"step": 8650
},
{
"epoch": 0.696,
"grad_norm": 0.06593217700719833,
"learning_rate": 0.00038404,
"loss": 6.1463,
"step": 8700
},
{
"epoch": 0.7,
"grad_norm": 0.08359606564044952,
"learning_rate": 0.0003833733333333334,
"loss": 6.1363,
"step": 8750
},
{
"epoch": 0.704,
"grad_norm": 0.06772098690271378,
"learning_rate": 0.00038270666666666666,
"loss": 6.1839,
"step": 8800
},
{
"epoch": 0.708,
"grad_norm": 0.0758063942193985,
"learning_rate": 0.00038204,
"loss": 6.1264,
"step": 8850
},
{
"epoch": 0.712,
"grad_norm": 0.08643003553152084,
"learning_rate": 0.00038137333333333333,
"loss": 6.1239,
"step": 8900
},
{
"epoch": 0.716,
"grad_norm": 0.11498606204986572,
"learning_rate": 0.0003807066666666667,
"loss": 6.1176,
"step": 8950
},
{
"epoch": 0.72,
"grad_norm": 0.07906458526849747,
"learning_rate": 0.00038004,
"loss": 6.1507,
"step": 9000
},
{
"epoch": 0.724,
"grad_norm": 0.10387740284204483,
"learning_rate": 0.00037937333333333334,
"loss": 6.1433,
"step": 9050
},
{
"epoch": 0.728,
"grad_norm": 0.10321218520402908,
"learning_rate": 0.0003787066666666667,
"loss": 6.106,
"step": 9100
},
{
"epoch": 0.732,
"grad_norm": 0.11427198350429535,
"learning_rate": 0.00037804,
"loss": 6.1281,
"step": 9150
},
{
"epoch": 0.736,
"grad_norm": 0.10714442282915115,
"learning_rate": 0.00037737333333333334,
"loss": 6.1004,
"step": 9200
},
{
"epoch": 0.74,
"grad_norm": 0.18091201782226562,
"learning_rate": 0.0003767066666666667,
"loss": 6.1604,
"step": 9250
},
{
"epoch": 0.744,
"grad_norm": 0.08371248841285706,
"learning_rate": 0.00037604,
"loss": 6.1404,
"step": 9300
},
{
"epoch": 0.748,
"grad_norm": 0.09137505292892456,
"learning_rate": 0.00037537333333333335,
"loss": 6.1373,
"step": 9350
},
{
"epoch": 0.752,
"grad_norm": 0.09476427733898163,
"learning_rate": 0.0003747066666666667,
"loss": 6.1615,
"step": 9400
},
{
"epoch": 0.756,
"grad_norm": 0.12197805941104889,
"learning_rate": 0.00037404,
"loss": 6.1554,
"step": 9450
},
{
"epoch": 0.76,
"grad_norm": 0.07106644660234451,
"learning_rate": 0.00037337333333333335,
"loss": 6.1279,
"step": 9500
},
{
"epoch": 0.764,
"grad_norm": 0.1028914600610733,
"learning_rate": 0.0003727066666666667,
"loss": 6.1234,
"step": 9550
},
{
"epoch": 0.768,
"grad_norm": 0.06454537063837051,
"learning_rate": 0.00037203999999999997,
"loss": 6.1171,
"step": 9600
},
{
"epoch": 0.772,
"grad_norm": 0.0632103756070137,
"learning_rate": 0.00037137333333333336,
"loss": 6.139,
"step": 9650
},
{
"epoch": 0.776,
"grad_norm": 0.08923089504241943,
"learning_rate": 0.0003707066666666667,
"loss": 6.1329,
"step": 9700
},
{
"epoch": 0.78,
"grad_norm": 0.07740955054759979,
"learning_rate": 0.00037004,
"loss": 6.1535,
"step": 9750
},
{
"epoch": 0.784,
"grad_norm": 0.07043568789958954,
"learning_rate": 0.00036937333333333336,
"loss": 6.1371,
"step": 9800
},
{
"epoch": 0.788,
"grad_norm": 0.10964999347925186,
"learning_rate": 0.0003687066666666667,
"loss": 6.1139,
"step": 9850
},
{
"epoch": 0.792,
"grad_norm": 0.06873112171888351,
"learning_rate": 0.00036804,
"loss": 6.1339,
"step": 9900
},
{
"epoch": 0.796,
"grad_norm": 0.08041664212942123,
"learning_rate": 0.0003673733333333333,
"loss": 6.1431,
"step": 9950
},
{
"epoch": 0.8,
"grad_norm": 0.06778831034898758,
"learning_rate": 0.0003667066666666667,
"loss": 6.1378,
"step": 10000
},
{
"epoch": 0.804,
"grad_norm": 0.09591349959373474,
"learning_rate": 0.00036604,
"loss": 6.1474,
"step": 10050
},
{
"epoch": 0.808,
"grad_norm": 0.11371871829032898,
"learning_rate": 0.0003653733333333333,
"loss": 6.1207,
"step": 10100
},
{
"epoch": 0.812,
"grad_norm": 0.10860052704811096,
"learning_rate": 0.0003647066666666667,
"loss": 6.1214,
"step": 10150
},
{
"epoch": 0.816,
"grad_norm": 0.0798107236623764,
"learning_rate": 0.00036404,
"loss": 6.1418,
"step": 10200
},
{
"epoch": 0.82,
"grad_norm": 0.10224350541830063,
"learning_rate": 0.0003633733333333333,
"loss": 6.1587,
"step": 10250
},
{
"epoch": 0.824,
"grad_norm": 0.08145198225975037,
"learning_rate": 0.00036270666666666666,
"loss": 6.1526,
"step": 10300
},
{
"epoch": 0.828,
"grad_norm": 0.07440963387489319,
"learning_rate": 0.00036204,
"loss": 6.1432,
"step": 10350
},
{
"epoch": 0.832,
"grad_norm": 0.08542169630527496,
"learning_rate": 0.00036137333333333333,
"loss": 6.1466,
"step": 10400
},
{
"epoch": 0.836,
"grad_norm": 0.08295084536075592,
"learning_rate": 0.00036070666666666667,
"loss": 6.1142,
"step": 10450
},
{
"epoch": 0.84,
"grad_norm": 0.14887620508670807,
"learning_rate": 0.00036004000000000006,
"loss": 6.1467,
"step": 10500
},
{
"epoch": 0.844,
"grad_norm": 0.0929214358329773,
"learning_rate": 0.00035937333333333334,
"loss": 6.1183,
"step": 10550
},
{
"epoch": 0.848,
"grad_norm": 0.08066875487565994,
"learning_rate": 0.00035870666666666667,
"loss": 6.162,
"step": 10600
},
{
"epoch": 0.852,
"grad_norm": 0.08840718865394592,
"learning_rate": 0.00035804,
"loss": 6.159,
"step": 10650
},
{
"epoch": 0.856,
"grad_norm": 0.10590760409832001,
"learning_rate": 0.00035737333333333334,
"loss": 6.1288,
"step": 10700
},
{
"epoch": 0.86,
"grad_norm": 0.1342998892068863,
"learning_rate": 0.0003567066666666667,
"loss": 6.1273,
"step": 10750
},
{
"epoch": 0.864,
"grad_norm": 0.1403747797012329,
"learning_rate": 0.00035604,
"loss": 6.1284,
"step": 10800
},
{
"epoch": 0.868,
"grad_norm": 0.09205539524555206,
"learning_rate": 0.00035537333333333335,
"loss": 6.1645,
"step": 10850
},
{
"epoch": 0.872,
"grad_norm": 0.09674155712127686,
"learning_rate": 0.0003547066666666667,
"loss": 6.1063,
"step": 10900
},
{
"epoch": 0.876,
"grad_norm": 0.0932726040482521,
"learning_rate": 0.00035404,
"loss": 6.1446,
"step": 10950
},
{
"epoch": 0.88,
"grad_norm": 0.0739155113697052,
"learning_rate": 0.0003533733333333333,
"loss": 6.1493,
"step": 11000
},
{
"epoch": 0.884,
"grad_norm": 0.09592071175575256,
"learning_rate": 0.0003527066666666667,
"loss": 6.1123,
"step": 11050
},
{
"epoch": 0.888,
"grad_norm": 0.08964091539382935,
"learning_rate": 0.00035204,
"loss": 6.1362,
"step": 11100
},
{
"epoch": 0.892,
"grad_norm": 0.06913220882415771,
"learning_rate": 0.0003513733333333333,
"loss": 6.1383,
"step": 11150
},
{
"epoch": 0.896,
"grad_norm": 0.07007604837417603,
"learning_rate": 0.0003507066666666667,
"loss": 6.1306,
"step": 11200
},
{
"epoch": 0.9,
"grad_norm": 0.08512368053197861,
"learning_rate": 0.00035004000000000003,
"loss": 6.144,
"step": 11250
},
{
"epoch": 0.904,
"grad_norm": 0.09819598495960236,
"learning_rate": 0.0003493733333333333,
"loss": 6.1253,
"step": 11300
},
{
"epoch": 0.908,
"grad_norm": 0.09111661463975906,
"learning_rate": 0.00034870666666666665,
"loss": 6.1497,
"step": 11350
},
{
"epoch": 0.912,
"grad_norm": 0.09370109438896179,
"learning_rate": 0.00034804000000000004,
"loss": 6.1093,
"step": 11400
},
{
"epoch": 0.916,
"grad_norm": 0.173933744430542,
"learning_rate": 0.0003473733333333333,
"loss": 6.142,
"step": 11450
},
{
"epoch": 0.92,
"grad_norm": 0.07551289349794388,
"learning_rate": 0.00034670666666666665,
"loss": 6.1323,
"step": 11500
},
{
"epoch": 0.924,
"grad_norm": 0.08378127217292786,
"learning_rate": 0.00034604000000000004,
"loss": 6.1388,
"step": 11550
},
{
"epoch": 0.928,
"grad_norm": 0.12368805706501007,
"learning_rate": 0.0003453733333333333,
"loss": 6.1343,
"step": 11600
},
{
"epoch": 0.932,
"grad_norm": 0.08157848566770554,
"learning_rate": 0.00034470666666666666,
"loss": 6.1561,
"step": 11650
},
{
"epoch": 0.936,
"grad_norm": 0.09186889231204987,
"learning_rate": 0.00034404000000000005,
"loss": 6.1497,
"step": 11700
},
{
"epoch": 0.94,
"grad_norm": 0.07851957529783249,
"learning_rate": 0.00034337333333333333,
"loss": 6.1547,
"step": 11750
},
{
"epoch": 0.944,
"grad_norm": 0.07389291375875473,
"learning_rate": 0.00034270666666666666,
"loss": 6.1405,
"step": 11800
},
{
"epoch": 0.948,
"grad_norm": 0.09608258306980133,
"learning_rate": 0.00034204,
"loss": 6.1285,
"step": 11850
},
{
"epoch": 0.952,
"grad_norm": 0.11561011523008347,
"learning_rate": 0.00034137333333333333,
"loss": 6.166,
"step": 11900
},
{
"epoch": 0.956,
"grad_norm": 0.0766991451382637,
"learning_rate": 0.00034070666666666667,
"loss": 6.1308,
"step": 11950
},
{
"epoch": 0.96,
"grad_norm": 0.11941938102245331,
"learning_rate": 0.00034004,
"loss": 6.1359,
"step": 12000
},
{
"epoch": 0.964,
"grad_norm": 0.08147929608821869,
"learning_rate": 0.0003393733333333334,
"loss": 6.1674,
"step": 12050
},
{
"epoch": 0.968,
"grad_norm": 0.08242129534482956,
"learning_rate": 0.0003387066666666667,
"loss": 6.1376,
"step": 12100
},
{
"epoch": 0.972,
"grad_norm": 0.09833355993032455,
"learning_rate": 0.00033804,
"loss": 6.14,
"step": 12150
},
{
"epoch": 0.976,
"grad_norm": 0.10561971366405487,
"learning_rate": 0.00033737333333333334,
"loss": 6.1105,
"step": 12200
},
{
"epoch": 0.98,
"grad_norm": 0.08972202241420746,
"learning_rate": 0.0003367066666666667,
"loss": 6.1482,
"step": 12250
},
{
"epoch": 0.984,
"grad_norm": 0.16591700911521912,
"learning_rate": 0.00033604,
"loss": 6.1274,
"step": 12300
},
{
"epoch": 0.988,
"grad_norm": 0.08193220943212509,
"learning_rate": 0.00033537333333333335,
"loss": 6.1635,
"step": 12350
},
{
"epoch": 0.992,
"grad_norm": 0.09556683897972107,
"learning_rate": 0.0003347066666666667,
"loss": 6.1154,
"step": 12400
},
{
"epoch": 0.996,
"grad_norm": 0.06692540645599365,
"learning_rate": 0.00033404,
"loss": 6.1189,
"step": 12450
},
{
"epoch": 1.0,
"grad_norm": 0.16574884951114655,
"learning_rate": 0.00033337333333333336,
"loss": 6.1256,
"step": 12500
},
{
"epoch": 1.0,
"eval_bleu": 0.7992351497154513,
"eval_cer": 0.0307969704468027,
"eval_f1": 0.9121373060777769,
"eval_loss": 6.114731788635254,
"eval_meteor": 0.9021622500286361,
"eval_runtime": 589.2505,
"eval_samples_per_second": 8.485,
"eval_steps_per_second": 0.266,
"eval_wer": 0.09501103161648805,
"step": 12500
},
{
"epoch": 1.004,
"grad_norm": 0.10246103256940842,
"learning_rate": 0.00033270666666666664,
"loss": 6.124,
"step": 12550
},
{
"epoch": 1.008,
"grad_norm": 0.08541428297758102,
"learning_rate": 0.00033204,
"loss": 6.1313,
"step": 12600
},
{
"epoch": 1.012,
"grad_norm": 0.08289841562509537,
"learning_rate": 0.00033137333333333336,
"loss": 6.1589,
"step": 12650
},
{
"epoch": 1.016,
"grad_norm": 0.08190711587667465,
"learning_rate": 0.00033070666666666664,
"loss": 6.0959,
"step": 12700
},
{
"epoch": 1.02,
"grad_norm": 0.06827723979949951,
"learning_rate": 0.00033004000000000003,
"loss": 6.1143,
"step": 12750
},
{
"epoch": 1.024,
"grad_norm": 0.07452603429555893,
"learning_rate": 0.00032937333333333337,
"loss": 6.1382,
"step": 12800
},
{
"epoch": 1.028,
"grad_norm": 0.0929698571562767,
"learning_rate": 0.00032870666666666665,
"loss": 6.1322,
"step": 12850
},
{
"epoch": 1.032,
"grad_norm": 0.09623093903064728,
"learning_rate": 0.00032804,
"loss": 6.1188,
"step": 12900
},
{
"epoch": 1.036,
"grad_norm": 0.09550349414348602,
"learning_rate": 0.00032737333333333337,
"loss": 6.1259,
"step": 12950
},
{
"epoch": 1.04,
"grad_norm": 0.10382863879203796,
"learning_rate": 0.00032670666666666665,
"loss": 6.1139,
"step": 13000
},
{
"epoch": 1.044,
"grad_norm": 0.2019147127866745,
"learning_rate": 0.00032604,
"loss": 6.1026,
"step": 13050
},
{
"epoch": 1.048,
"grad_norm": 0.0859890952706337,
"learning_rate": 0.0003253733333333334,
"loss": 6.1079,
"step": 13100
},
{
"epoch": 1.052,
"grad_norm": 0.06851667165756226,
"learning_rate": 0.00032470666666666666,
"loss": 6.1017,
"step": 13150
},
{
"epoch": 1.056,
"grad_norm": 0.13821753859519958,
"learning_rate": 0.00032404,
"loss": 6.1425,
"step": 13200
},
{
"epoch": 1.06,
"grad_norm": 0.1405964344739914,
"learning_rate": 0.00032337333333333333,
"loss": 6.1324,
"step": 13250
},
{
"epoch": 1.064,
"grad_norm": 0.13605883717536926,
"learning_rate": 0.00032270666666666666,
"loss": 6.1357,
"step": 13300
},
{
"epoch": 1.068,
"grad_norm": 0.09331830590963364,
"learning_rate": 0.00032204,
"loss": 6.1516,
"step": 13350
},
{
"epoch": 1.072,
"grad_norm": 0.09796037524938583,
"learning_rate": 0.00032137333333333334,
"loss": 6.1351,
"step": 13400
},
{
"epoch": 1.076,
"grad_norm": 0.07837456464767456,
"learning_rate": 0.00032070666666666667,
"loss": 6.1559,
"step": 13450
},
{
"epoch": 1.08,
"grad_norm": 0.1173258125782013,
"learning_rate": 0.00032004,
"loss": 6.1327,
"step": 13500
},
{
"epoch": 1.084,
"grad_norm": 0.07709537446498871,
"learning_rate": 0.00031937333333333334,
"loss": 6.1483,
"step": 13550
},
{
"epoch": 1.088,
"grad_norm": 0.07045052200555801,
"learning_rate": 0.0003187066666666667,
"loss": 6.1339,
"step": 13600
},
{
"epoch": 1.092,
"grad_norm": 0.0666421428322792,
"learning_rate": 0.00031804,
"loss": 6.1209,
"step": 13650
},
{
"epoch": 1.096,
"grad_norm": 0.13885049521923065,
"learning_rate": 0.00031737333333333335,
"loss": 6.1336,
"step": 13700
},
{
"epoch": 1.1,
"grad_norm": 0.08121097087860107,
"learning_rate": 0.0003167066666666667,
"loss": 6.1222,
"step": 13750
},
{
"epoch": 1.104,
"grad_norm": 0.07723355293273926,
"learning_rate": 0.00031604,
"loss": 6.145,
"step": 13800
},
{
"epoch": 1.108,
"grad_norm": 0.06761692464351654,
"learning_rate": 0.00031537333333333335,
"loss": 6.139,
"step": 13850
},
{
"epoch": 1.112,
"grad_norm": 0.08623646944761276,
"learning_rate": 0.0003147066666666667,
"loss": 6.1152,
"step": 13900
},
{
"epoch": 1.116,
"grad_norm": 0.07731112837791443,
"learning_rate": 0.00031403999999999997,
"loss": 6.0982,
"step": 13950
},
{
"epoch": 1.12,
"grad_norm": 0.08634395897388458,
"learning_rate": 0.00031337333333333336,
"loss": 6.141,
"step": 14000
},
{
"epoch": 1.124,
"grad_norm": 0.12357600778341293,
"learning_rate": 0.0003127066666666667,
"loss": 6.1383,
"step": 14050
},
{
"epoch": 1.1280000000000001,
"grad_norm": 0.07043814659118652,
"learning_rate": 0.00031204,
"loss": 6.1122,
"step": 14100
},
{
"epoch": 1.1320000000000001,
"grad_norm": 0.10092733055353165,
"learning_rate": 0.00031137333333333336,
"loss": 6.1377,
"step": 14150
},
{
"epoch": 1.1360000000000001,
"grad_norm": 0.08625989407300949,
"learning_rate": 0.0003107066666666667,
"loss": 6.1367,
"step": 14200
},
{
"epoch": 1.1400000000000001,
"grad_norm": 0.10989579558372498,
"learning_rate": 0.00031004,
"loss": 6.1213,
"step": 14250
},
{
"epoch": 1.144,
"grad_norm": 0.08390317112207413,
"learning_rate": 0.0003093733333333333,
"loss": 6.147,
"step": 14300
},
{
"epoch": 1.148,
"grad_norm": 0.08830354362726212,
"learning_rate": 0.0003087066666666667,
"loss": 6.151,
"step": 14350
},
{
"epoch": 1.152,
"grad_norm": 0.07414206862449646,
"learning_rate": 0.00030804,
"loss": 6.148,
"step": 14400
},
{
"epoch": 1.156,
"grad_norm": 0.14279407262802124,
"learning_rate": 0.0003073733333333333,
"loss": 6.1426,
"step": 14450
},
{
"epoch": 1.16,
"grad_norm": 0.06777594983577728,
"learning_rate": 0.0003067066666666667,
"loss": 6.1266,
"step": 14500
},
{
"epoch": 1.164,
"grad_norm": 0.08341771364212036,
"learning_rate": 0.00030604,
"loss": 6.1091,
"step": 14550
},
{
"epoch": 1.168,
"grad_norm": 0.07408594340085983,
"learning_rate": 0.0003053733333333333,
"loss": 6.1627,
"step": 14600
},
{
"epoch": 1.172,
"grad_norm": 0.14746539294719696,
"learning_rate": 0.00030470666666666666,
"loss": 6.1001,
"step": 14650
},
{
"epoch": 1.176,
"grad_norm": 0.07584001123905182,
"learning_rate": 0.00030404,
"loss": 6.1502,
"step": 14700
},
{
"epoch": 1.18,
"grad_norm": 0.08708412945270538,
"learning_rate": 0.00030337333333333333,
"loss": 6.1398,
"step": 14750
},
{
"epoch": 1.184,
"grad_norm": 0.10468371212482452,
"learning_rate": 0.00030270666666666667,
"loss": 6.1386,
"step": 14800
},
{
"epoch": 1.188,
"grad_norm": 0.07788513600826263,
"learning_rate": 0.00030204,
"loss": 6.1364,
"step": 14850
},
{
"epoch": 1.192,
"grad_norm": 0.08724680542945862,
"learning_rate": 0.00030137333333333334,
"loss": 6.1222,
"step": 14900
},
{
"epoch": 1.196,
"grad_norm": 0.11040119081735611,
"learning_rate": 0.00030070666666666667,
"loss": 6.1109,
"step": 14950
},
{
"epoch": 1.2,
"grad_norm": 0.09263161569833755,
"learning_rate": 0.00030003999999999995,
"loss": 6.138,
"step": 15000
},
{
"epoch": 1.204,
"grad_norm": 0.10881724208593369,
"learning_rate": 0.00029937333333333334,
"loss": 6.1311,
"step": 15050
},
{
"epoch": 1.208,
"grad_norm": 0.08177340030670166,
"learning_rate": 0.0002987066666666667,
"loss": 6.085,
"step": 15100
},
{
"epoch": 1.212,
"grad_norm": 0.0873132050037384,
"learning_rate": 0.00029804,
"loss": 6.1541,
"step": 15150
},
{
"epoch": 1.216,
"grad_norm": 0.06651157885789871,
"learning_rate": 0.00029737333333333335,
"loss": 6.1487,
"step": 15200
},
{
"epoch": 1.22,
"grad_norm": 0.091284841299057,
"learning_rate": 0.0002967066666666667,
"loss": 6.109,
"step": 15250
},
{
"epoch": 1.224,
"grad_norm": 0.11109695583581924,
"learning_rate": 0.00029604,
"loss": 6.1328,
"step": 15300
},
{
"epoch": 1.228,
"grad_norm": 0.08852343261241913,
"learning_rate": 0.00029537333333333335,
"loss": 6.0954,
"step": 15350
},
{
"epoch": 1.232,
"grad_norm": 0.09942734986543655,
"learning_rate": 0.0002947066666666667,
"loss": 6.1295,
"step": 15400
},
{
"epoch": 1.236,
"grad_norm": 0.10045381635427475,
"learning_rate": 0.00029404,
"loss": 6.1311,
"step": 15450
},
{
"epoch": 1.24,
"grad_norm": 0.07699646055698395,
"learning_rate": 0.0002933733333333333,
"loss": 6.1425,
"step": 15500
},
{
"epoch": 1.244,
"grad_norm": 0.11729083955287933,
"learning_rate": 0.0002927066666666667,
"loss": 6.0902,
"step": 15550
},
{
"epoch": 1.248,
"grad_norm": 0.09871556609869003,
"learning_rate": 0.00029204000000000003,
"loss": 6.1329,
"step": 15600
},
{
"epoch": 1.252,
"grad_norm": 0.06868964433670044,
"learning_rate": 0.0002913733333333333,
"loss": 6.1547,
"step": 15650
},
{
"epoch": 1.256,
"grad_norm": 0.10069587081670761,
"learning_rate": 0.0002907066666666667,
"loss": 6.1401,
"step": 15700
},
{
"epoch": 1.26,
"grad_norm": 0.10442180186510086,
"learning_rate": 0.00029004000000000004,
"loss": 6.1287,
"step": 15750
},
{
"epoch": 1.264,
"grad_norm": 0.10621173679828644,
"learning_rate": 0.0002893733333333333,
"loss": 6.1323,
"step": 15800
},
{
"epoch": 1.268,
"grad_norm": 0.14463548362255096,
"learning_rate": 0.00028870666666666665,
"loss": 6.134,
"step": 15850
},
{
"epoch": 1.272,
"grad_norm": 0.07573352009057999,
"learning_rate": 0.00028804000000000004,
"loss": 6.1348,
"step": 15900
},
{
"epoch": 1.276,
"grad_norm": 0.11907925456762314,
"learning_rate": 0.0002873733333333333,
"loss": 6.132,
"step": 15950
},
{
"epoch": 1.28,
"grad_norm": 0.07349155098199844,
"learning_rate": 0.00028670666666666666,
"loss": 6.1103,
"step": 16000
},
{
"epoch": 1.284,
"grad_norm": 0.08845087885856628,
"learning_rate": 0.00028604000000000005,
"loss": 6.15,
"step": 16050
},
{
"epoch": 1.288,
"grad_norm": 0.10439050197601318,
"learning_rate": 0.0002853866666666667,
"loss": 6.1265,
"step": 16100
},
{
"epoch": 1.292,
"grad_norm": 0.1198461651802063,
"learning_rate": 0.00028471999999999997,
"loss": 6.1439,
"step": 16150
},
{
"epoch": 1.296,
"grad_norm": 0.11866705864667892,
"learning_rate": 0.0002840533333333333,
"loss": 6.102,
"step": 16200
},
{
"epoch": 1.3,
"grad_norm": 0.06813132017850876,
"learning_rate": 0.0002833866666666667,
"loss": 6.1357,
"step": 16250
},
{
"epoch": 1.304,
"grad_norm": 0.08213432878255844,
"learning_rate": 0.00028272000000000003,
"loss": 6.1122,
"step": 16300
},
{
"epoch": 1.308,
"grad_norm": 0.09066776931285858,
"learning_rate": 0.0002820533333333333,
"loss": 6.1053,
"step": 16350
},
{
"epoch": 1.312,
"grad_norm": 0.1005127802491188,
"learning_rate": 0.0002813866666666667,
"loss": 6.1369,
"step": 16400
},
{
"epoch": 1.316,
"grad_norm": 0.15352381765842438,
"learning_rate": 0.00028072000000000004,
"loss": 6.1245,
"step": 16450
},
{
"epoch": 1.32,
"grad_norm": 0.09107839316129684,
"learning_rate": 0.0002800533333333333,
"loss": 6.1361,
"step": 16500
},
{
"epoch": 1.324,
"grad_norm": 0.10383354127407074,
"learning_rate": 0.00027938666666666665,
"loss": 6.1549,
"step": 16550
},
{
"epoch": 1.328,
"grad_norm": 0.14111094176769257,
"learning_rate": 0.00027872000000000004,
"loss": 6.1163,
"step": 16600
},
{
"epoch": 1.332,
"grad_norm": 0.09891673177480698,
"learning_rate": 0.0002780533333333333,
"loss": 6.1108,
"step": 16650
},
{
"epoch": 1.336,
"grad_norm": 0.07505099475383759,
"learning_rate": 0.00027738666666666666,
"loss": 6.1514,
"step": 16700
},
{
"epoch": 1.34,
"grad_norm": 0.09139006584882736,
"learning_rate": 0.00027672000000000005,
"loss": 6.0931,
"step": 16750
},
{
"epoch": 1.3439999999999999,
"grad_norm": 0.060702841728925705,
"learning_rate": 0.00027605333333333333,
"loss": 6.1361,
"step": 16800
},
{
"epoch": 1.3479999999999999,
"grad_norm": 0.09833380579948425,
"learning_rate": 0.00027538666666666666,
"loss": 6.092,
"step": 16850
},
{
"epoch": 1.3519999999999999,
"grad_norm": 0.07918598502874374,
"learning_rate": 0.00027472,
"loss": 6.1441,
"step": 16900
},
{
"epoch": 1.3559999999999999,
"grad_norm": 0.08027896285057068,
"learning_rate": 0.00027405333333333333,
"loss": 6.1319,
"step": 16950
},
{
"epoch": 1.3599999999999999,
"grad_norm": 0.07533938437700272,
"learning_rate": 0.00027338666666666667,
"loss": 6.1169,
"step": 17000
},
{
"epoch": 1.3639999999999999,
"grad_norm": 0.0677085593342781,
"learning_rate": 0.00027272,
"loss": 6.129,
"step": 17050
},
{
"epoch": 1.3679999999999999,
"grad_norm": 0.08421999216079712,
"learning_rate": 0.00027205333333333334,
"loss": 6.1273,
"step": 17100
},
{
"epoch": 1.3719999999999999,
"grad_norm": 0.08619444817304611,
"learning_rate": 0.0002713866666666667,
"loss": 6.1536,
"step": 17150
},
{
"epoch": 1.376,
"grad_norm": 0.12560027837753296,
"learning_rate": 0.00027072,
"loss": 6.1475,
"step": 17200
},
{
"epoch": 1.38,
"grad_norm": 0.07596519589424133,
"learning_rate": 0.0002700533333333333,
"loss": 6.1064,
"step": 17250
},
{
"epoch": 1.384,
"grad_norm": 0.110632985830307,
"learning_rate": 0.0002693866666666667,
"loss": 6.1484,
"step": 17300
},
{
"epoch": 1.388,
"grad_norm": 0.059355009347200394,
"learning_rate": 0.00026872,
"loss": 6.1328,
"step": 17350
},
{
"epoch": 1.392,
"grad_norm": 0.08227020502090454,
"learning_rate": 0.0002680533333333333,
"loss": 6.1228,
"step": 17400
},
{
"epoch": 1.396,
"grad_norm": 0.08337653428316116,
"learning_rate": 0.0002673866666666667,
"loss": 6.1123,
"step": 17450
},
{
"epoch": 1.4,
"grad_norm": 0.0675416886806488,
"learning_rate": 0.00026672,
"loss": 6.1245,
"step": 17500
},
{
"epoch": 1.404,
"grad_norm": 0.07393161207437515,
"learning_rate": 0.0002660533333333333,
"loss": 6.1158,
"step": 17550
},
{
"epoch": 1.408,
"grad_norm": 0.07143409550189972,
"learning_rate": 0.0002653866666666667,
"loss": 6.1127,
"step": 17600
},
{
"epoch": 1.412,
"grad_norm": 0.09115247428417206,
"learning_rate": 0.00026472,
"loss": 6.137,
"step": 17650
},
{
"epoch": 1.416,
"grad_norm": 0.0754542276263237,
"learning_rate": 0.0002640533333333333,
"loss": 6.144,
"step": 17700
},
{
"epoch": 1.42,
"grad_norm": 0.08187278360128403,
"learning_rate": 0.00026338666666666664,
"loss": 6.163,
"step": 17750
},
{
"epoch": 1.424,
"grad_norm": 0.1261921226978302,
"learning_rate": 0.00026272000000000003,
"loss": 6.1232,
"step": 17800
},
{
"epoch": 1.428,
"grad_norm": 0.14911839365959167,
"learning_rate": 0.00026205333333333337,
"loss": 6.1011,
"step": 17850
},
{
"epoch": 1.432,
"grad_norm": 0.10030370205640793,
"learning_rate": 0.00026138666666666665,
"loss": 6.1361,
"step": 17900
},
{
"epoch": 1.436,
"grad_norm": 0.14745479822158813,
"learning_rate": 0.00026072000000000004,
"loss": 6.0948,
"step": 17950
},
{
"epoch": 1.44,
"grad_norm": 0.06656701117753983,
"learning_rate": 0.0002600533333333334,
"loss": 6.133,
"step": 18000
},
{
"epoch": 1.444,
"grad_norm": 0.09332013130187988,
"learning_rate": 0.00025938666666666665,
"loss": 6.1347,
"step": 18050
},
{
"epoch": 1.448,
"grad_norm": 0.07895311713218689,
"learning_rate": 0.00025872,
"loss": 6.1172,
"step": 18100
},
{
"epoch": 1.452,
"grad_norm": 0.07482937723398209,
"learning_rate": 0.0002580533333333334,
"loss": 6.155,
"step": 18150
},
{
"epoch": 1.456,
"grad_norm": 0.1457810401916504,
"learning_rate": 0.00025738666666666666,
"loss": 6.1321,
"step": 18200
},
{
"epoch": 1.46,
"grad_norm": 0.0820474773645401,
"learning_rate": 0.00025672,
"loss": 6.1457,
"step": 18250
},
{
"epoch": 1.464,
"grad_norm": 0.0853123813867569,
"learning_rate": 0.0002560533333333334,
"loss": 6.1482,
"step": 18300
},
{
"epoch": 1.468,
"grad_norm": 0.08830557018518448,
"learning_rate": 0.00025538666666666667,
"loss": 6.1466,
"step": 18350
},
{
"epoch": 1.472,
"grad_norm": 0.11658693104982376,
"learning_rate": 0.00025472,
"loss": 6.1369,
"step": 18400
},
{
"epoch": 1.476,
"grad_norm": 0.1177460327744484,
"learning_rate": 0.00025405333333333334,
"loss": 6.1123,
"step": 18450
},
{
"epoch": 1.48,
"grad_norm": 0.12630799412727356,
"learning_rate": 0.00025338666666666667,
"loss": 6.1187,
"step": 18500
},
{
"epoch": 1.484,
"grad_norm": 0.07797873020172119,
"learning_rate": 0.00025272,
"loss": 6.1385,
"step": 18550
},
{
"epoch": 1.488,
"grad_norm": 0.0689234733581543,
"learning_rate": 0.00025205333333333334,
"loss": 6.1221,
"step": 18600
},
{
"epoch": 1.492,
"grad_norm": 0.06933168321847916,
"learning_rate": 0.0002513866666666667,
"loss": 6.1242,
"step": 18650
},
{
"epoch": 1.496,
"grad_norm": 0.12850166857242584,
"learning_rate": 0.00025072,
"loss": 6.1394,
"step": 18700
},
{
"epoch": 1.5,
"grad_norm": 0.08051607012748718,
"learning_rate": 0.00025005333333333335,
"loss": 6.1242,
"step": 18750
},
{
"epoch": 1.504,
"grad_norm": 0.08870550245046616,
"learning_rate": 0.0002493866666666667,
"loss": 6.1388,
"step": 18800
},
{
"epoch": 1.508,
"grad_norm": 0.09039358049631119,
"learning_rate": 0.00024872,
"loss": 6.1453,
"step": 18850
},
{
"epoch": 1.512,
"grad_norm": 0.12615415453910828,
"learning_rate": 0.0002480533333333333,
"loss": 6.142,
"step": 18900
},
{
"epoch": 1.516,
"grad_norm": 0.1570785939693451,
"learning_rate": 0.0002473866666666667,
"loss": 6.1381,
"step": 18950
},
{
"epoch": 1.52,
"grad_norm": 0.0672970712184906,
"learning_rate": 0.00024672,
"loss": 6.1138,
"step": 19000
},
{
"epoch": 1.524,
"grad_norm": 0.08686328679323196,
"learning_rate": 0.00024605333333333336,
"loss": 6.1371,
"step": 19050
},
{
"epoch": 1.528,
"grad_norm": 0.11509618908166885,
"learning_rate": 0.0002453866666666667,
"loss": 6.118,
"step": 19100
},
{
"epoch": 1.532,
"grad_norm": 0.11807120591402054,
"learning_rate": 0.00024472,
"loss": 6.1284,
"step": 19150
},
{
"epoch": 1.536,
"grad_norm": 0.07517319917678833,
"learning_rate": 0.00024405333333333334,
"loss": 6.1311,
"step": 19200
},
{
"epoch": 1.54,
"grad_norm": 0.08818035572767258,
"learning_rate": 0.00024338666666666667,
"loss": 6.15,
"step": 19250
},
{
"epoch": 1.544,
"grad_norm": 0.06738495826721191,
"learning_rate": 0.00024272,
"loss": 6.1364,
"step": 19300
},
{
"epoch": 1.548,
"grad_norm": 0.0759725347161293,
"learning_rate": 0.00024205333333333334,
"loss": 6.1323,
"step": 19350
},
{
"epoch": 1.552,
"grad_norm": 0.09060502797365189,
"learning_rate": 0.00024138666666666668,
"loss": 6.1208,
"step": 19400
},
{
"epoch": 1.556,
"grad_norm": 0.17496347427368164,
"learning_rate": 0.00024071999999999999,
"loss": 6.1564,
"step": 19450
},
{
"epoch": 1.56,
"grad_norm": 0.08376263827085495,
"learning_rate": 0.00024005333333333335,
"loss": 6.1164,
"step": 19500
},
{
"epoch": 1.564,
"grad_norm": 0.08850732445716858,
"learning_rate": 0.00023938666666666666,
"loss": 6.1433,
"step": 19550
},
{
"epoch": 1.568,
"grad_norm": 0.07784956693649292,
"learning_rate": 0.00023872,
"loss": 6.1526,
"step": 19600
},
{
"epoch": 1.572,
"grad_norm": 0.11241588741540909,
"learning_rate": 0.00023805333333333335,
"loss": 6.1462,
"step": 19650
},
{
"epoch": 1.576,
"grad_norm": 0.14172354340553284,
"learning_rate": 0.00023738666666666666,
"loss": 6.1037,
"step": 19700
},
{
"epoch": 1.58,
"grad_norm": 0.06475979089736938,
"learning_rate": 0.00023672000000000002,
"loss": 6.1492,
"step": 19750
},
{
"epoch": 1.584,
"grad_norm": 0.0724240094423294,
"learning_rate": 0.00023605333333333333,
"loss": 6.109,
"step": 19800
},
{
"epoch": 1.588,
"grad_norm": 0.0833180844783783,
"learning_rate": 0.00023538666666666667,
"loss": 6.1218,
"step": 19850
},
{
"epoch": 1.592,
"grad_norm": 0.11274095624685287,
"learning_rate": 0.00023472000000000003,
"loss": 6.1234,
"step": 19900
},
{
"epoch": 1.596,
"grad_norm": 0.08060643821954727,
"learning_rate": 0.00023405333333333334,
"loss": 6.1443,
"step": 19950
},
{
"epoch": 1.6,
"grad_norm": 0.07934583723545074,
"learning_rate": 0.00023338666666666667,
"loss": 6.1544,
"step": 20000
},
{
"epoch": 1.604,
"grad_norm": 0.08774593472480774,
"learning_rate": 0.00023272,
"loss": 6.1218,
"step": 20050
},
{
"epoch": 1.608,
"grad_norm": 0.07892851531505585,
"learning_rate": 0.00023205333333333334,
"loss": 6.1154,
"step": 20100
},
{
"epoch": 1.612,
"grad_norm": 0.06774507462978363,
"learning_rate": 0.00023138666666666665,
"loss": 6.1052,
"step": 20150
},
{
"epoch": 1.616,
"grad_norm": 0.06893208622932434,
"learning_rate": 0.00023072000000000001,
"loss": 6.1528,
"step": 20200
},
{
"epoch": 1.62,
"grad_norm": 0.15834791958332062,
"learning_rate": 0.00023005333333333335,
"loss": 6.1394,
"step": 20250
},
{
"epoch": 1.624,
"grad_norm": 0.12432359158992767,
"learning_rate": 0.00022938666666666666,
"loss": 6.1586,
"step": 20300
},
{
"epoch": 1.6280000000000001,
"grad_norm": 0.07978148013353348,
"learning_rate": 0.00022872000000000002,
"loss": 6.1072,
"step": 20350
},
{
"epoch": 1.6320000000000001,
"grad_norm": 0.11817126721143723,
"learning_rate": 0.00022805333333333333,
"loss": 6.1369,
"step": 20400
},
{
"epoch": 1.6360000000000001,
"grad_norm": 0.09556128084659576,
"learning_rate": 0.00022738666666666666,
"loss": 6.1348,
"step": 20450
},
{
"epoch": 1.6400000000000001,
"grad_norm": 0.0712658241391182,
"learning_rate": 0.00022672,
"loss": 6.099,
"step": 20500
},
{
"epoch": 1.6440000000000001,
"grad_norm": 0.11630263179540634,
"learning_rate": 0.00022605333333333333,
"loss": 6.0978,
"step": 20550
},
{
"epoch": 1.6480000000000001,
"grad_norm": 0.07726474106311798,
"learning_rate": 0.0002253866666666667,
"loss": 6.1041,
"step": 20600
},
{
"epoch": 1.6520000000000001,
"grad_norm": 0.08310693502426147,
"learning_rate": 0.00022472,
"loss": 6.1245,
"step": 20650
},
{
"epoch": 1.6560000000000001,
"grad_norm": 0.09287037700414658,
"learning_rate": 0.00022405333333333334,
"loss": 6.136,
"step": 20700
},
{
"epoch": 1.6600000000000001,
"grad_norm": 0.07605389505624771,
"learning_rate": 0.00022338666666666667,
"loss": 6.1214,
"step": 20750
},
{
"epoch": 1.6640000000000001,
"grad_norm": 0.08210542052984238,
"learning_rate": 0.00022272,
"loss": 6.1329,
"step": 20800
},
{
"epoch": 1.6680000000000001,
"grad_norm": 0.14464394748210907,
"learning_rate": 0.00022205333333333332,
"loss": 6.1409,
"step": 20850
},
{
"epoch": 1.6720000000000002,
"grad_norm": 0.08916781842708588,
"learning_rate": 0.00022138666666666668,
"loss": 6.1173,
"step": 20900
},
{
"epoch": 1.6760000000000002,
"grad_norm": 0.07462794333696365,
"learning_rate": 0.00022072000000000001,
"loss": 6.1112,
"step": 20950
},
{
"epoch": 1.6800000000000002,
"grad_norm": 0.10107839107513428,
"learning_rate": 0.00022005333333333332,
"loss": 6.1643,
"step": 21000
},
{
"epoch": 1.6840000000000002,
"grad_norm": 0.08370058238506317,
"learning_rate": 0.00021938666666666668,
"loss": 6.1492,
"step": 21050
},
{
"epoch": 1.688,
"grad_norm": 0.22742551565170288,
"learning_rate": 0.00021872,
"loss": 6.1198,
"step": 21100
},
{
"epoch": 1.692,
"grad_norm": 0.07674632966518402,
"learning_rate": 0.00021805333333333333,
"loss": 6.1296,
"step": 21150
},
{
"epoch": 1.696,
"grad_norm": 0.09212461113929749,
"learning_rate": 0.0002173866666666667,
"loss": 6.1381,
"step": 21200
},
{
"epoch": 1.7,
"grad_norm": 0.08687262237071991,
"learning_rate": 0.00021672,
"loss": 6.1173,
"step": 21250
},
{
"epoch": 1.704,
"grad_norm": 0.09085115790367126,
"learning_rate": 0.00021605333333333333,
"loss": 6.1215,
"step": 21300
},
{
"epoch": 1.708,
"grad_norm": 0.1523166298866272,
"learning_rate": 0.00021538666666666667,
"loss": 6.1167,
"step": 21350
},
{
"epoch": 1.712,
"grad_norm": 0.06795202940702438,
"learning_rate": 0.00021472,
"loss": 6.1115,
"step": 21400
},
{
"epoch": 1.716,
"grad_norm": 0.08532360196113586,
"learning_rate": 0.00021406666666666665,
"loss": 6.1264,
"step": 21450
},
{
"epoch": 1.72,
"grad_norm": 0.1246284693479538,
"learning_rate": 0.0002134,
"loss": 6.1076,
"step": 21500
},
{
"epoch": 1.724,
"grad_norm": 0.06756407767534256,
"learning_rate": 0.00021273333333333335,
"loss": 6.1512,
"step": 21550
},
{
"epoch": 1.728,
"grad_norm": 0.0712115541100502,
"learning_rate": 0.00021206666666666665,
"loss": 6.1152,
"step": 21600
},
{
"epoch": 1.732,
"grad_norm": 0.07911697030067444,
"learning_rate": 0.00021140000000000002,
"loss": 6.1094,
"step": 21650
},
{
"epoch": 1.736,
"grad_norm": 0.16603903472423553,
"learning_rate": 0.00021073333333333332,
"loss": 6.1251,
"step": 21700
},
{
"epoch": 1.74,
"grad_norm": 0.10143581032752991,
"learning_rate": 0.00021006666666666669,
"loss": 6.1168,
"step": 21750
},
{
"epoch": 1.744,
"grad_norm": 0.07904482632875443,
"learning_rate": 0.0002094,
"loss": 6.1367,
"step": 21800
},
{
"epoch": 1.748,
"grad_norm": 0.11075440794229507,
"learning_rate": 0.00020873333333333333,
"loss": 6.141,
"step": 21850
},
{
"epoch": 1.752,
"grad_norm": 0.09030994772911072,
"learning_rate": 0.0002080666666666667,
"loss": 6.1612,
"step": 21900
},
{
"epoch": 1.756,
"grad_norm": 0.11473453789949417,
"learning_rate": 0.0002074,
"loss": 6.1356,
"step": 21950
},
{
"epoch": 1.76,
"grad_norm": 0.08365178108215332,
"learning_rate": 0.00020673333333333333,
"loss": 6.1151,
"step": 22000
},
{
"epoch": 1.764,
"grad_norm": 0.08890107274055481,
"learning_rate": 0.00020606666666666667,
"loss": 6.1675,
"step": 22050
},
{
"epoch": 1.768,
"grad_norm": 0.09186216443777084,
"learning_rate": 0.0002054,
"loss": 6.1408,
"step": 22100
},
{
"epoch": 1.772,
"grad_norm": 0.10363107174634933,
"learning_rate": 0.00020473333333333334,
"loss": 6.1228,
"step": 22150
},
{
"epoch": 1.776,
"grad_norm": 0.07370318472385406,
"learning_rate": 0.00020406666666666668,
"loss": 6.1342,
"step": 22200
},
{
"epoch": 1.78,
"grad_norm": 0.06642436981201172,
"learning_rate": 0.0002034,
"loss": 6.1419,
"step": 22250
},
{
"epoch": 1.784,
"grad_norm": 0.07188383489847183,
"learning_rate": 0.00020273333333333332,
"loss": 6.1049,
"step": 22300
},
{
"epoch": 1.788,
"grad_norm": 0.07432916015386581,
"learning_rate": 0.00020206666666666668,
"loss": 6.1352,
"step": 22350
},
{
"epoch": 1.792,
"grad_norm": 0.09115191549062729,
"learning_rate": 0.0002014,
"loss": 6.1532,
"step": 22400
},
{
"epoch": 1.796,
"grad_norm": 0.10337071865797043,
"learning_rate": 0.00020073333333333335,
"loss": 6.1113,
"step": 22450
},
{
"epoch": 1.8,
"grad_norm": 0.08444780111312866,
"learning_rate": 0.0002000666666666667,
"loss": 6.1311,
"step": 22500
},
{
"epoch": 1.804,
"grad_norm": 0.072529636323452,
"learning_rate": 0.0001994,
"loss": 6.1306,
"step": 22550
},
{
"epoch": 1.808,
"grad_norm": 0.11244989186525345,
"learning_rate": 0.00019873333333333336,
"loss": 6.1491,
"step": 22600
},
{
"epoch": 1.812,
"grad_norm": 0.08851779997348785,
"learning_rate": 0.00019806666666666667,
"loss": 6.0964,
"step": 22650
},
{
"epoch": 1.8159999999999998,
"grad_norm": 0.06745192408561707,
"learning_rate": 0.0001974,
"loss": 6.1279,
"step": 22700
},
{
"epoch": 1.8199999999999998,
"grad_norm": 0.0779520720243454,
"learning_rate": 0.00019673333333333334,
"loss": 6.1815,
"step": 22750
},
{
"epoch": 1.8239999999999998,
"grad_norm": 0.14855316281318665,
"learning_rate": 0.00019606666666666667,
"loss": 6.1447,
"step": 22800
},
{
"epoch": 1.8279999999999998,
"grad_norm": 0.08061526715755463,
"learning_rate": 0.0001954,
"loss": 6.1465,
"step": 22850
},
{
"epoch": 1.8319999999999999,
"grad_norm": 0.08754510432481766,
"learning_rate": 0.00019473333333333334,
"loss": 6.0951,
"step": 22900
},
{
"epoch": 1.8359999999999999,
"grad_norm": 0.10192490369081497,
"learning_rate": 0.00019406666666666668,
"loss": 6.1333,
"step": 22950
},
{
"epoch": 1.8399999999999999,
"grad_norm": 0.12555508315563202,
"learning_rate": 0.00019339999999999998,
"loss": 6.1405,
"step": 23000
},
{
"epoch": 1.8439999999999999,
"grad_norm": 0.09991151839494705,
"learning_rate": 0.00019273333333333335,
"loss": 6.1227,
"step": 23050
},
{
"epoch": 1.8479999999999999,
"grad_norm": 0.09026263654232025,
"learning_rate": 0.00019206666666666666,
"loss": 6.1197,
"step": 23100
},
{
"epoch": 1.8519999999999999,
"grad_norm": 0.16548314690589905,
"learning_rate": 0.0001914,
"loss": 6.1201,
"step": 23150
},
{
"epoch": 1.8559999999999999,
"grad_norm": 0.08828788995742798,
"learning_rate": 0.00019073333333333335,
"loss": 6.1054,
"step": 23200
},
{
"epoch": 1.8599999999999999,
"grad_norm": 0.13285967707633972,
"learning_rate": 0.00019006666666666666,
"loss": 6.1176,
"step": 23250
},
{
"epoch": 1.8639999999999999,
"grad_norm": 0.09008660167455673,
"learning_rate": 0.00018940000000000002,
"loss": 6.1497,
"step": 23300
},
{
"epoch": 1.8679999999999999,
"grad_norm": 0.08572939783334732,
"learning_rate": 0.00018873333333333333,
"loss": 6.1136,
"step": 23350
},
{
"epoch": 1.8719999999999999,
"grad_norm": 0.06979856640100479,
"learning_rate": 0.00018806666666666667,
"loss": 6.0752,
"step": 23400
},
{
"epoch": 1.876,
"grad_norm": 0.06450002640485764,
"learning_rate": 0.0001874,
"loss": 6.1277,
"step": 23450
},
{
"epoch": 1.88,
"grad_norm": 0.07373508810997009,
"learning_rate": 0.00018673333333333334,
"loss": 6.1247,
"step": 23500
},
{
"epoch": 1.884,
"grad_norm": 0.0858045369386673,
"learning_rate": 0.00018606666666666667,
"loss": 6.1408,
"step": 23550
},
{
"epoch": 1.888,
"grad_norm": 0.09263505786657333,
"learning_rate": 0.0001854,
"loss": 6.1194,
"step": 23600
},
{
"epoch": 1.892,
"grad_norm": 0.06254684925079346,
"learning_rate": 0.00018473333333333334,
"loss": 6.1264,
"step": 23650
},
{
"epoch": 1.896,
"grad_norm": 0.07512735575437546,
"learning_rate": 0.00018406666666666665,
"loss": 6.162,
"step": 23700
},
{
"epoch": 1.9,
"grad_norm": 0.09808183461427689,
"learning_rate": 0.0001834,
"loss": 6.139,
"step": 23750
},
{
"epoch": 1.904,
"grad_norm": 0.07865627855062485,
"learning_rate": 0.00018273333333333335,
"loss": 6.1133,
"step": 23800
},
{
"epoch": 1.908,
"grad_norm": 0.10448238998651505,
"learning_rate": 0.00018206666666666666,
"loss": 6.1041,
"step": 23850
},
{
"epoch": 1.912,
"grad_norm": 0.08385495096445084,
"learning_rate": 0.00018140000000000002,
"loss": 6.1015,
"step": 23900
},
{
"epoch": 1.916,
"grad_norm": 0.08391263335943222,
"learning_rate": 0.00018073333333333333,
"loss": 6.1342,
"step": 23950
},
{
"epoch": 1.92,
"grad_norm": 0.08172860741615295,
"learning_rate": 0.0001800666666666667,
"loss": 6.0955,
"step": 24000
},
{
"epoch": 1.924,
"grad_norm": 0.08176043629646301,
"learning_rate": 0.0001794,
"loss": 6.1301,
"step": 24050
},
{
"epoch": 1.928,
"grad_norm": 0.1573161631822586,
"learning_rate": 0.00017873333333333333,
"loss": 6.1435,
"step": 24100
},
{
"epoch": 1.932,
"grad_norm": 0.0872332900762558,
"learning_rate": 0.0001780666666666667,
"loss": 6.1093,
"step": 24150
},
{
"epoch": 1.936,
"grad_norm": 0.07939482480287552,
"learning_rate": 0.0001774,
"loss": 6.1149,
"step": 24200
},
{
"epoch": 1.94,
"grad_norm": 0.1270250678062439,
"learning_rate": 0.00017673333333333334,
"loss": 6.1301,
"step": 24250
},
{
"epoch": 1.944,
"grad_norm": 0.11416273564100266,
"learning_rate": 0.00017606666666666667,
"loss": 6.133,
"step": 24300
},
{
"epoch": 1.948,
"grad_norm": 0.11052611470222473,
"learning_rate": 0.0001754,
"loss": 6.1494,
"step": 24350
},
{
"epoch": 1.952,
"grad_norm": 0.07410755008459091,
"learning_rate": 0.00017473333333333332,
"loss": 6.1199,
"step": 24400
},
{
"epoch": 1.956,
"grad_norm": 0.06857108324766159,
"learning_rate": 0.00017406666666666668,
"loss": 6.0982,
"step": 24450
},
{
"epoch": 1.96,
"grad_norm": 0.09296654164791107,
"learning_rate": 0.0001734,
"loss": 6.1378,
"step": 24500
},
{
"epoch": 1.964,
"grad_norm": 0.08037588000297546,
"learning_rate": 0.00017273333333333332,
"loss": 6.1184,
"step": 24550
},
{
"epoch": 1.968,
"grad_norm": 0.07525748014450073,
"learning_rate": 0.00017206666666666668,
"loss": 6.121,
"step": 24600
},
{
"epoch": 1.972,
"grad_norm": 0.06920752674341202,
"learning_rate": 0.0001714,
"loss": 6.1107,
"step": 24650
},
{
"epoch": 1.976,
"grad_norm": 0.07926963269710541,
"learning_rate": 0.00017073333333333333,
"loss": 6.1866,
"step": 24700
},
{
"epoch": 1.98,
"grad_norm": 0.08063755929470062,
"learning_rate": 0.00017006666666666666,
"loss": 6.1126,
"step": 24750
},
{
"epoch": 1.984,
"grad_norm": 0.07737676799297333,
"learning_rate": 0.0001694,
"loss": 6.1154,
"step": 24800
},
{
"epoch": 1.988,
"grad_norm": 0.07330887019634247,
"learning_rate": 0.00016873333333333336,
"loss": 6.102,
"step": 24850
},
{
"epoch": 1.992,
"grad_norm": 0.11078302562236786,
"learning_rate": 0.00016806666666666667,
"loss": 6.1185,
"step": 24900
},
{
"epoch": 1.996,
"grad_norm": 0.09129579365253448,
"learning_rate": 0.0001674,
"loss": 6.1271,
"step": 24950
},
{
"epoch": 2.0,
"grad_norm": 0.07768255472183228,
"learning_rate": 0.00016673333333333334,
"loss": 6.1187,
"step": 25000
},
{
"epoch": 2.0,
"eval_bleu": 0.8172357815952239,
"eval_cer": 0.028102060013325207,
"eval_f1": 0.9198066340960089,
"eval_loss": 6.106744766235352,
"eval_meteor": 0.9111873248372072,
"eval_runtime": 587.1812,
"eval_samples_per_second": 8.515,
"eval_steps_per_second": 0.267,
"eval_wer": 0.08682293822555923,
"step": 25000
},
{
"epoch": 2.004,
"grad_norm": 0.10532809793949127,
"learning_rate": 0.00016606666666666667,
"loss": 6.1463,
"step": 25050
},
{
"epoch": 2.008,
"grad_norm": 0.1788061410188675,
"learning_rate": 0.00016539999999999998,
"loss": 6.1198,
"step": 25100
},
{
"epoch": 2.012,
"grad_norm": 0.09791863709688187,
"learning_rate": 0.00016473333333333334,
"loss": 6.125,
"step": 25150
},
{
"epoch": 2.016,
"grad_norm": 0.07065719366073608,
"learning_rate": 0.00016406666666666668,
"loss": 6.1473,
"step": 25200
},
{
"epoch": 2.02,
"grad_norm": 0.07709743082523346,
"learning_rate": 0.0001634,
"loss": 6.0951,
"step": 25250
},
{
"epoch": 2.024,
"grad_norm": 0.09567587077617645,
"learning_rate": 0.00016273333333333335,
"loss": 6.1355,
"step": 25300
},
{
"epoch": 2.028,
"grad_norm": 0.0888226330280304,
"learning_rate": 0.00016206666666666666,
"loss": 6.1467,
"step": 25350
},
{
"epoch": 2.032,
"grad_norm": 0.07385870069265366,
"learning_rate": 0.0001614,
"loss": 6.1241,
"step": 25400
},
{
"epoch": 2.036,
"grad_norm": 0.08876443654298782,
"learning_rate": 0.00016073333333333336,
"loss": 6.1293,
"step": 25450
},
{
"epoch": 2.04,
"grad_norm": 0.08981232345104218,
"learning_rate": 0.00016006666666666666,
"loss": 6.1524,
"step": 25500
},
{
"epoch": 2.044,
"grad_norm": 0.14752143621444702,
"learning_rate": 0.0001594,
"loss": 6.1127,
"step": 25550
},
{
"epoch": 2.048,
"grad_norm": 0.07527261972427368,
"learning_rate": 0.00015873333333333333,
"loss": 6.1514,
"step": 25600
},
{
"epoch": 2.052,
"grad_norm": 0.08812130242586136,
"learning_rate": 0.00015806666666666667,
"loss": 6.1491,
"step": 25650
},
{
"epoch": 2.056,
"grad_norm": 0.09507957100868225,
"learning_rate": 0.0001574133333333333,
"loss": 6.1243,
"step": 25700
},
{
"epoch": 2.06,
"grad_norm": 0.07341151684522629,
"learning_rate": 0.00015674666666666667,
"loss": 6.1041,
"step": 25750
},
{
"epoch": 2.064,
"grad_norm": 0.09354670345783234,
"learning_rate": 0.00015608,
"loss": 6.1079,
"step": 25800
},
{
"epoch": 2.068,
"grad_norm": 0.06504394859075546,
"learning_rate": 0.00015541333333333332,
"loss": 6.1462,
"step": 25850
},
{
"epoch": 2.072,
"grad_norm": 0.11820420622825623,
"learning_rate": 0.00015474666666666668,
"loss": 6.1119,
"step": 25900
},
{
"epoch": 2.076,
"grad_norm": 0.09549087285995483,
"learning_rate": 0.00015408,
"loss": 6.1105,
"step": 25950
},
{
"epoch": 2.08,
"grad_norm": 0.08686575293540955,
"learning_rate": 0.00015341333333333335,
"loss": 6.1148,
"step": 26000
},
{
"epoch": 2.084,
"grad_norm": 0.07166782021522522,
"learning_rate": 0.00015274666666666669,
"loss": 6.1183,
"step": 26050
},
{
"epoch": 2.088,
"grad_norm": 0.060847390443086624,
"learning_rate": 0.00015208,
"loss": 6.1527,
"step": 26100
},
{
"epoch": 2.092,
"grad_norm": 0.09383268654346466,
"learning_rate": 0.00015141333333333336,
"loss": 6.1101,
"step": 26150
},
{
"epoch": 2.096,
"grad_norm": 0.16403351724147797,
"learning_rate": 0.00015074666666666666,
"loss": 6.1261,
"step": 26200
},
{
"epoch": 2.1,
"grad_norm": 0.07584146410226822,
"learning_rate": 0.00015008,
"loss": 6.1079,
"step": 26250
},
{
"epoch": 2.104,
"grad_norm": 0.07933875173330307,
"learning_rate": 0.00014941333333333333,
"loss": 6.1419,
"step": 26300
},
{
"epoch": 2.108,
"grad_norm": 0.09459910541772842,
"learning_rate": 0.00014874666666666667,
"loss": 6.1407,
"step": 26350
},
{
"epoch": 2.112,
"grad_norm": 0.07101839780807495,
"learning_rate": 0.00014808,
"loss": 6.1429,
"step": 26400
},
{
"epoch": 2.116,
"grad_norm": 0.09078552573919296,
"learning_rate": 0.00014741333333333334,
"loss": 6.1305,
"step": 26450
},
{
"epoch": 2.12,
"grad_norm": 0.08979959040880203,
"learning_rate": 0.00014674666666666668,
"loss": 6.1185,
"step": 26500
},
{
"epoch": 2.124,
"grad_norm": 0.09011465311050415,
"learning_rate": 0.00014607999999999998,
"loss": 6.1194,
"step": 26550
},
{
"epoch": 2.128,
"grad_norm": 0.15769775211811066,
"learning_rate": 0.00014541333333333335,
"loss": 6.1317,
"step": 26600
},
{
"epoch": 2.132,
"grad_norm": 0.08187425136566162,
"learning_rate": 0.00014474666666666665,
"loss": 6.1401,
"step": 26650
},
{
"epoch": 2.136,
"grad_norm": 0.09170059114694595,
"learning_rate": 0.00014408000000000002,
"loss": 6.1015,
"step": 26700
},
{
"epoch": 2.14,
"grad_norm": 0.07317773997783661,
"learning_rate": 0.00014341333333333335,
"loss": 6.1379,
"step": 26750
},
{
"epoch": 2.144,
"grad_norm": 0.08419287204742432,
"learning_rate": 0.00014274666666666666,
"loss": 6.1282,
"step": 26800
},
{
"epoch": 2.148,
"grad_norm": 0.19534294307231903,
"learning_rate": 0.00014208000000000002,
"loss": 6.1318,
"step": 26850
},
{
"epoch": 2.152,
"grad_norm": 0.06066428869962692,
"learning_rate": 0.00014141333333333333,
"loss": 6.1163,
"step": 26900
},
{
"epoch": 2.156,
"grad_norm": 0.0685119703412056,
"learning_rate": 0.00014074666666666667,
"loss": 6.1082,
"step": 26950
},
{
"epoch": 2.16,
"grad_norm": 0.09936445951461792,
"learning_rate": 0.00014008,
"loss": 6.1145,
"step": 27000
},
{
"epoch": 2.164,
"grad_norm": 0.0961381196975708,
"learning_rate": 0.00013941333333333334,
"loss": 6.128,
"step": 27050
},
{
"epoch": 2.168,
"grad_norm": 0.08067239075899124,
"learning_rate": 0.00013874666666666667,
"loss": 6.1156,
"step": 27100
},
{
"epoch": 2.172,
"grad_norm": 0.07759729027748108,
"learning_rate": 0.00013808,
"loss": 6.1415,
"step": 27150
},
{
"epoch": 2.176,
"grad_norm": 0.09564219415187836,
"learning_rate": 0.00013741333333333334,
"loss": 6.1158,
"step": 27200
},
{
"epoch": 2.18,
"grad_norm": 0.08130455017089844,
"learning_rate": 0.00013674666666666665,
"loss": 6.1497,
"step": 27250
},
{
"epoch": 2.184,
"grad_norm": 0.09030058234930038,
"learning_rate": 0.00013608,
"loss": 6.087,
"step": 27300
},
{
"epoch": 2.188,
"grad_norm": 0.07839103043079376,
"learning_rate": 0.00013541333333333332,
"loss": 6.1209,
"step": 27350
},
{
"epoch": 2.192,
"grad_norm": 0.08492274582386017,
"learning_rate": 0.00013474666666666666,
"loss": 6.1403,
"step": 27400
},
{
"epoch": 2.196,
"grad_norm": 0.07763341069221497,
"learning_rate": 0.00013408000000000002,
"loss": 6.1239,
"step": 27450
},
{
"epoch": 2.2,
"grad_norm": 0.11779925972223282,
"learning_rate": 0.00013341333333333333,
"loss": 6.1176,
"step": 27500
},
{
"epoch": 2.204,
"grad_norm": 0.09326451271772385,
"learning_rate": 0.0001327466666666667,
"loss": 6.1344,
"step": 27550
},
{
"epoch": 2.208,
"grad_norm": 0.0928724929690361,
"learning_rate": 0.00013208,
"loss": 6.1306,
"step": 27600
},
{
"epoch": 2.212,
"grad_norm": 0.09179584681987762,
"learning_rate": 0.00013142666666666667,
"loss": 6.077,
"step": 27650
},
{
"epoch": 2.216,
"grad_norm": 0.10055625438690186,
"learning_rate": 0.00013076,
"loss": 6.1071,
"step": 27700
},
{
"epoch": 2.22,
"grad_norm": 0.07940229028463364,
"learning_rate": 0.00013009333333333334,
"loss": 6.1185,
"step": 27750
},
{
"epoch": 2.224,
"grad_norm": 0.1058603897690773,
"learning_rate": 0.00012942666666666667,
"loss": 6.1225,
"step": 27800
},
{
"epoch": 2.228,
"grad_norm": 0.07181280851364136,
"learning_rate": 0.00012876,
"loss": 6.1263,
"step": 27850
},
{
"epoch": 2.232,
"grad_norm": 0.1376914083957672,
"learning_rate": 0.00012809333333333334,
"loss": 6.1429,
"step": 27900
},
{
"epoch": 2.2359999999999998,
"grad_norm": 0.08571089804172516,
"learning_rate": 0.00012742666666666665,
"loss": 6.1048,
"step": 27950
},
{
"epoch": 2.24,
"grad_norm": 0.07279989868402481,
"learning_rate": 0.00012676,
"loss": 6.1373,
"step": 28000
},
{
"epoch": 2.2439999999999998,
"grad_norm": 0.06771089136600494,
"learning_rate": 0.00012609333333333335,
"loss": 6.1303,
"step": 28050
},
{
"epoch": 2.248,
"grad_norm": 0.12202068418264389,
"learning_rate": 0.00012542666666666666,
"loss": 6.159,
"step": 28100
},
{
"epoch": 2.252,
"grad_norm": 0.05906202271580696,
"learning_rate": 0.00012476,
"loss": 6.1089,
"step": 28150
},
{
"epoch": 2.2560000000000002,
"grad_norm": 0.08086899667978287,
"learning_rate": 0.00012409333333333333,
"loss": 6.148,
"step": 28200
},
{
"epoch": 2.26,
"grad_norm": 0.08693017810583115,
"learning_rate": 0.00012342666666666666,
"loss": 6.1061,
"step": 28250
},
{
"epoch": 2.2640000000000002,
"grad_norm": 0.08942941576242447,
"learning_rate": 0.00012276,
"loss": 6.1359,
"step": 28300
},
{
"epoch": 2.268,
"grad_norm": 0.09802144020795822,
"learning_rate": 0.00012209333333333333,
"loss": 6.1353,
"step": 28350
},
{
"epoch": 2.2720000000000002,
"grad_norm": 0.09012448787689209,
"learning_rate": 0.00012142666666666667,
"loss": 6.1134,
"step": 28400
},
{
"epoch": 2.276,
"grad_norm": 0.07133274525403976,
"learning_rate": 0.00012076,
"loss": 6.1138,
"step": 28450
},
{
"epoch": 2.2800000000000002,
"grad_norm": 0.08808527141809464,
"learning_rate": 0.00012009333333333334,
"loss": 6.1831,
"step": 28500
},
{
"epoch": 2.284,
"grad_norm": 0.08180871605873108,
"learning_rate": 0.00011942666666666667,
"loss": 6.1176,
"step": 28550
},
{
"epoch": 2.288,
"grad_norm": 0.07998582720756531,
"learning_rate": 0.00011876000000000001,
"loss": 6.1226,
"step": 28600
},
{
"epoch": 2.292,
"grad_norm": 0.0751601904630661,
"learning_rate": 0.00011809333333333333,
"loss": 6.1633,
"step": 28650
},
{
"epoch": 2.296,
"grad_norm": 0.07086581736803055,
"learning_rate": 0.00011742666666666666,
"loss": 6.1445,
"step": 28700
},
{
"epoch": 2.3,
"grad_norm": 0.07511001825332642,
"learning_rate": 0.00011676,
"loss": 6.1495,
"step": 28750
},
{
"epoch": 2.304,
"grad_norm": 0.13152866065502167,
"learning_rate": 0.00011609333333333335,
"loss": 6.1389,
"step": 28800
},
{
"epoch": 2.308,
"grad_norm": 0.08494232594966888,
"learning_rate": 0.00011542666666666667,
"loss": 6.1133,
"step": 28850
},
{
"epoch": 2.312,
"grad_norm": 0.05931884050369263,
"learning_rate": 0.00011476,
"loss": 6.1271,
"step": 28900
},
{
"epoch": 2.316,
"grad_norm": 0.1087857261300087,
"learning_rate": 0.00011409333333333334,
"loss": 6.1019,
"step": 28950
},
{
"epoch": 2.32,
"grad_norm": 0.07511544972658157,
"learning_rate": 0.00011342666666666666,
"loss": 6.1305,
"step": 29000
},
{
"epoch": 2.324,
"grad_norm": 0.06479702144861221,
"learning_rate": 0.00011276,
"loss": 6.1246,
"step": 29050
},
{
"epoch": 2.328,
"grad_norm": 0.11013238877058029,
"learning_rate": 0.00011209333333333333,
"loss": 6.1008,
"step": 29100
},
{
"epoch": 2.332,
"grad_norm": 0.14565546810626984,
"learning_rate": 0.00011142666666666667,
"loss": 6.0939,
"step": 29150
},
{
"epoch": 2.336,
"grad_norm": 0.07791303843259811,
"learning_rate": 0.00011076,
"loss": 6.1484,
"step": 29200
},
{
"epoch": 2.34,
"grad_norm": 0.0645865648984909,
"learning_rate": 0.00011009333333333334,
"loss": 6.1432,
"step": 29250
},
{
"epoch": 2.344,
"grad_norm": 0.08149053156375885,
"learning_rate": 0.00010942666666666667,
"loss": 6.1236,
"step": 29300
},
{
"epoch": 2.348,
"grad_norm": 0.07592412084341049,
"learning_rate": 0.00010876,
"loss": 6.1183,
"step": 29350
},
{
"epoch": 2.352,
"grad_norm": 0.1071145310997963,
"learning_rate": 0.00010809333333333333,
"loss": 6.1258,
"step": 29400
},
{
"epoch": 2.356,
"grad_norm": 0.07142779976129532,
"learning_rate": 0.00010742666666666667,
"loss": 6.1206,
"step": 29450
},
{
"epoch": 2.36,
"grad_norm": 0.06658139079809189,
"learning_rate": 0.00010676,
"loss": 6.1112,
"step": 29500
},
{
"epoch": 2.364,
"grad_norm": 0.06896080821752548,
"learning_rate": 0.00010609333333333334,
"loss": 6.1322,
"step": 29550
},
{
"epoch": 2.368,
"grad_norm": 0.0689593181014061,
"learning_rate": 0.00010542666666666667,
"loss": 6.1413,
"step": 29600
},
{
"epoch": 2.372,
"grad_norm": 0.07385760545730591,
"learning_rate": 0.00010476,
"loss": 6.1274,
"step": 29650
},
{
"epoch": 2.376,
"grad_norm": 0.08973496407270432,
"learning_rate": 0.00010409333333333333,
"loss": 6.1103,
"step": 29700
},
{
"epoch": 2.38,
"grad_norm": 0.08894574642181396,
"learning_rate": 0.00010342666666666666,
"loss": 6.1274,
"step": 29750
},
{
"epoch": 2.384,
"grad_norm": 0.08101645857095718,
"learning_rate": 0.00010276000000000001,
"loss": 6.1185,
"step": 29800
},
{
"epoch": 2.388,
"grad_norm": 0.07258084416389465,
"learning_rate": 0.00010209333333333333,
"loss": 6.0877,
"step": 29850
},
{
"epoch": 2.392,
"grad_norm": 0.0927506536245346,
"learning_rate": 0.00010142666666666667,
"loss": 6.1462,
"step": 29900
},
{
"epoch": 2.396,
"grad_norm": 0.06932616978883743,
"learning_rate": 0.00010076,
"loss": 6.1221,
"step": 29950
},
{
"epoch": 2.4,
"grad_norm": 0.12042805552482605,
"learning_rate": 0.00010009333333333334,
"loss": 6.1172,
"step": 30000
},
{
"epoch": 2.404,
"grad_norm": 0.08478275686502457,
"learning_rate": 9.942666666666666e-05,
"loss": 6.0814,
"step": 30050
},
{
"epoch": 2.408,
"grad_norm": 0.156697615981102,
"learning_rate": 9.876e-05,
"loss": 6.1122,
"step": 30100
},
{
"epoch": 2.412,
"grad_norm": 0.1101473867893219,
"learning_rate": 9.809333333333335e-05,
"loss": 6.1243,
"step": 30150
},
{
"epoch": 2.416,
"grad_norm": 0.15714909136295319,
"learning_rate": 9.742666666666667e-05,
"loss": 6.1528,
"step": 30200
},
{
"epoch": 2.42,
"grad_norm": 0.08726368099451065,
"learning_rate": 9.676e-05,
"loss": 6.0985,
"step": 30250
},
{
"epoch": 2.424,
"grad_norm": 0.09492692351341248,
"learning_rate": 9.609333333333334e-05,
"loss": 6.0844,
"step": 30300
},
{
"epoch": 2.428,
"grad_norm": 0.11203988641500473,
"learning_rate": 9.542666666666667e-05,
"loss": 6.1023,
"step": 30350
},
{
"epoch": 2.432,
"grad_norm": 0.09259045124053955,
"learning_rate": 9.476e-05,
"loss": 6.0822,
"step": 30400
},
{
"epoch": 2.436,
"grad_norm": 0.07302715629339218,
"learning_rate": 9.409333333333334e-05,
"loss": 6.1527,
"step": 30450
},
{
"epoch": 2.44,
"grad_norm": 0.08993089944124222,
"learning_rate": 9.342666666666668e-05,
"loss": 6.1212,
"step": 30500
},
{
"epoch": 2.444,
"grad_norm": 0.09097767621278763,
"learning_rate": 9.276e-05,
"loss": 6.1174,
"step": 30550
},
{
"epoch": 2.448,
"grad_norm": 0.07290253043174744,
"learning_rate": 9.209333333333333e-05,
"loss": 6.1267,
"step": 30600
},
{
"epoch": 2.452,
"grad_norm": 0.08854053169488907,
"learning_rate": 9.142666666666667e-05,
"loss": 6.1337,
"step": 30650
},
{
"epoch": 2.456,
"grad_norm": 0.06443344056606293,
"learning_rate": 9.075999999999999e-05,
"loss": 6.1122,
"step": 30700
},
{
"epoch": 2.46,
"grad_norm": 0.06182222068309784,
"learning_rate": 9.009333333333333e-05,
"loss": 6.1255,
"step": 30750
},
{
"epoch": 2.464,
"grad_norm": 0.10279729962348938,
"learning_rate": 8.942666666666668e-05,
"loss": 6.1275,
"step": 30800
},
{
"epoch": 2.468,
"grad_norm": 0.16449953615665436,
"learning_rate": 8.876000000000001e-05,
"loss": 6.1109,
"step": 30850
},
{
"epoch": 2.472,
"grad_norm": 0.09171850979328156,
"learning_rate": 8.809333333333333e-05,
"loss": 6.115,
"step": 30900
},
{
"epoch": 2.476,
"grad_norm": 0.11549077183008194,
"learning_rate": 8.742666666666667e-05,
"loss": 6.1286,
"step": 30950
},
{
"epoch": 2.48,
"grad_norm": 0.07805439829826355,
"learning_rate": 8.676e-05,
"loss": 6.1349,
"step": 31000
},
{
"epoch": 2.484,
"grad_norm": 0.08250106871128082,
"learning_rate": 8.609333333333332e-05,
"loss": 6.1174,
"step": 31050
},
{
"epoch": 2.488,
"grad_norm": 0.07296884059906006,
"learning_rate": 8.542666666666666e-05,
"loss": 6.1213,
"step": 31100
},
{
"epoch": 2.492,
"grad_norm": 0.05842941626906395,
"learning_rate": 8.476000000000001e-05,
"loss": 6.1061,
"step": 31150
},
{
"epoch": 2.496,
"grad_norm": 0.11877656728029251,
"learning_rate": 8.409333333333334e-05,
"loss": 6.1485,
"step": 31200
},
{
"epoch": 2.5,
"grad_norm": 0.06877218931913376,
"learning_rate": 8.342666666666667e-05,
"loss": 6.1236,
"step": 31250
},
{
"epoch": 2.504,
"grad_norm": 0.06426341831684113,
"learning_rate": 8.276e-05,
"loss": 6.0974,
"step": 31300
},
{
"epoch": 2.508,
"grad_norm": 0.09154552221298218,
"learning_rate": 8.209333333333334e-05,
"loss": 6.1058,
"step": 31350
},
{
"epoch": 2.512,
"grad_norm": 0.09436667710542679,
"learning_rate": 8.142666666666666e-05,
"loss": 6.1448,
"step": 31400
},
{
"epoch": 2.516,
"grad_norm": 0.10648941993713379,
"learning_rate": 8.076e-05,
"loss": 6.1274,
"step": 31450
},
{
"epoch": 2.52,
"grad_norm": 0.11922524124383926,
"learning_rate": 8.009333333333334e-05,
"loss": 6.1341,
"step": 31500
},
{
"epoch": 2.524,
"grad_norm": 0.0852423757314682,
"learning_rate": 7.942666666666668e-05,
"loss": 6.1291,
"step": 31550
},
{
"epoch": 2.528,
"grad_norm": 0.08734596520662308,
"learning_rate": 7.876e-05,
"loss": 6.0868,
"step": 31600
},
{
"epoch": 2.532,
"grad_norm": 0.0815284475684166,
"learning_rate": 7.810666666666667e-05,
"loss": 6.1217,
"step": 31650
},
{
"epoch": 2.536,
"grad_norm": 0.079066202044487,
"learning_rate": 7.743999999999999e-05,
"loss": 6.1121,
"step": 31700
},
{
"epoch": 2.54,
"grad_norm": 0.08226827532052994,
"learning_rate": 7.677333333333334e-05,
"loss": 6.1259,
"step": 31750
},
{
"epoch": 2.544,
"grad_norm": 0.16736309230327606,
"learning_rate": 7.612e-05,
"loss": 6.128,
"step": 31800
},
{
"epoch": 2.548,
"grad_norm": 0.09454542398452759,
"learning_rate": 7.545333333333333e-05,
"loss": 6.1097,
"step": 31850
},
{
"epoch": 2.552,
"grad_norm": 0.0839695855975151,
"learning_rate": 7.478666666666667e-05,
"loss": 6.1106,
"step": 31900
},
{
"epoch": 2.556,
"grad_norm": 0.0834379494190216,
"learning_rate": 7.412e-05,
"loss": 6.1349,
"step": 31950
},
{
"epoch": 2.56,
"grad_norm": 0.07062547653913498,
"learning_rate": 7.345333333333334e-05,
"loss": 6.1226,
"step": 32000
},
{
"epoch": 2.564,
"grad_norm": 0.10849103331565857,
"learning_rate": 7.278666666666667e-05,
"loss": 6.1085,
"step": 32050
},
{
"epoch": 2.568,
"grad_norm": 0.08655690401792526,
"learning_rate": 7.212000000000001e-05,
"loss": 6.1314,
"step": 32100
},
{
"epoch": 2.572,
"grad_norm": 0.08081144094467163,
"learning_rate": 7.145333333333333e-05,
"loss": 6.1191,
"step": 32150
},
{
"epoch": 2.576,
"grad_norm": 0.13380956649780273,
"learning_rate": 7.078666666666666e-05,
"loss": 6.0919,
"step": 32200
},
{
"epoch": 2.58,
"grad_norm": 0.08491837233304977,
"learning_rate": 7.012e-05,
"loss": 6.1207,
"step": 32250
},
{
"epoch": 2.584,
"grad_norm": 0.0881977304816246,
"learning_rate": 6.945333333333333e-05,
"loss": 6.1195,
"step": 32300
},
{
"epoch": 2.588,
"grad_norm": 0.07825241982936859,
"learning_rate": 6.878666666666667e-05,
"loss": 6.0964,
"step": 32350
},
{
"epoch": 2.592,
"grad_norm": 0.09758233278989792,
"learning_rate": 6.812e-05,
"loss": 6.1313,
"step": 32400
},
{
"epoch": 2.596,
"grad_norm": 0.089619480073452,
"learning_rate": 6.745333333333334e-05,
"loss": 6.1496,
"step": 32450
},
{
"epoch": 2.6,
"grad_norm": 0.07455912977457047,
"learning_rate": 6.678666666666666e-05,
"loss": 6.114,
"step": 32500
},
{
"epoch": 2.604,
"grad_norm": 0.0836089700460434,
"learning_rate": 6.612e-05,
"loss": 6.1435,
"step": 32550
},
{
"epoch": 2.608,
"grad_norm": 0.0769866406917572,
"learning_rate": 6.545333333333333e-05,
"loss": 6.1449,
"step": 32600
},
{
"epoch": 2.612,
"grad_norm": 0.16900303959846497,
"learning_rate": 6.478666666666667e-05,
"loss": 6.1092,
"step": 32650
},
{
"epoch": 2.616,
"grad_norm": 0.1030564159154892,
"learning_rate": 6.412e-05,
"loss": 6.1418,
"step": 32700
},
{
"epoch": 2.62,
"grad_norm": 0.0829680934548378,
"learning_rate": 6.345333333333334e-05,
"loss": 6.1406,
"step": 32750
},
{
"epoch": 2.624,
"grad_norm": 0.09147661179304123,
"learning_rate": 6.278666666666667e-05,
"loss": 6.1012,
"step": 32800
},
{
"epoch": 2.628,
"grad_norm": 0.08476162701845169,
"learning_rate": 6.212000000000001e-05,
"loss": 6.0931,
"step": 32850
},
{
"epoch": 2.632,
"grad_norm": 0.08989998698234558,
"learning_rate": 6.145333333333333e-05,
"loss": 6.1359,
"step": 32900
},
{
"epoch": 2.636,
"grad_norm": 0.1211264356970787,
"learning_rate": 6.078666666666667e-05,
"loss": 6.1154,
"step": 32950
},
{
"epoch": 2.64,
"grad_norm": 0.07795704156160355,
"learning_rate": 6.012e-05,
"loss": 6.108,
"step": 33000
},
{
"epoch": 2.644,
"grad_norm": 0.08929655700922012,
"learning_rate": 5.945333333333333e-05,
"loss": 6.0983,
"step": 33050
},
{
"epoch": 2.648,
"grad_norm": 0.08746177703142166,
"learning_rate": 5.878666666666667e-05,
"loss": 6.1502,
"step": 33100
},
{
"epoch": 2.652,
"grad_norm": 0.08107666671276093,
"learning_rate": 5.812e-05,
"loss": 6.1269,
"step": 33150
},
{
"epoch": 2.656,
"grad_norm": 0.11754947155714035,
"learning_rate": 5.7453333333333334e-05,
"loss": 6.1133,
"step": 33200
},
{
"epoch": 2.66,
"grad_norm": 0.09138277918100357,
"learning_rate": 5.678666666666667e-05,
"loss": 6.1202,
"step": 33250
},
{
"epoch": 2.664,
"grad_norm": 0.1206459105014801,
"learning_rate": 5.6120000000000005e-05,
"loss": 6.1097,
"step": 33300
},
{
"epoch": 2.668,
"grad_norm": 0.07386889308691025,
"learning_rate": 5.545333333333333e-05,
"loss": 6.1361,
"step": 33350
},
{
"epoch": 2.672,
"grad_norm": 0.11128848791122437,
"learning_rate": 5.478666666666667e-05,
"loss": 6.1012,
"step": 33400
},
{
"epoch": 2.676,
"grad_norm": 0.0923205241560936,
"learning_rate": 5.4120000000000004e-05,
"loss": 6.1395,
"step": 33450
},
{
"epoch": 2.68,
"grad_norm": 0.10169784724712372,
"learning_rate": 5.345333333333333e-05,
"loss": 6.1441,
"step": 33500
},
{
"epoch": 2.684,
"grad_norm": 0.07282396405935287,
"learning_rate": 5.278666666666667e-05,
"loss": 6.1105,
"step": 33550
},
{
"epoch": 2.6879999999999997,
"grad_norm": 0.10214082151651382,
"learning_rate": 5.212e-05,
"loss": 6.0915,
"step": 33600
},
{
"epoch": 2.692,
"grad_norm": 0.10181968659162521,
"learning_rate": 5.145333333333333e-05,
"loss": 6.1431,
"step": 33650
},
{
"epoch": 2.6959999999999997,
"grad_norm": 0.06741881370544434,
"learning_rate": 5.0786666666666666e-05,
"loss": 6.1009,
"step": 33700
},
{
"epoch": 2.7,
"grad_norm": 0.11066074669361115,
"learning_rate": 5.012e-05,
"loss": 6.128,
"step": 33750
},
{
"epoch": 2.7039999999999997,
"grad_norm": 0.08623108267784119,
"learning_rate": 4.9453333333333336e-05,
"loss": 6.1357,
"step": 33800
},
{
"epoch": 2.708,
"grad_norm": 0.0612654834985733,
"learning_rate": 4.8786666666666665e-05,
"loss": 6.1284,
"step": 33850
},
{
"epoch": 2.7119999999999997,
"grad_norm": 0.07569581270217896,
"learning_rate": 4.812000000000001e-05,
"loss": 6.1517,
"step": 33900
},
{
"epoch": 2.716,
"grad_norm": 0.07532423734664917,
"learning_rate": 4.7453333333333335e-05,
"loss": 6.0955,
"step": 33950
},
{
"epoch": 2.7199999999999998,
"grad_norm": 0.11249226331710815,
"learning_rate": 4.6786666666666664e-05,
"loss": 6.1238,
"step": 34000
},
{
"epoch": 2.724,
"grad_norm": 0.10591550171375275,
"learning_rate": 4.612e-05,
"loss": 6.1198,
"step": 34050
},
{
"epoch": 2.7279999999999998,
"grad_norm": 0.1085771843791008,
"learning_rate": 4.5453333333333334e-05,
"loss": 6.141,
"step": 34100
},
{
"epoch": 2.732,
"grad_norm": 0.08227229118347168,
"learning_rate": 4.478666666666667e-05,
"loss": 6.099,
"step": 34150
},
{
"epoch": 2.7359999999999998,
"grad_norm": 0.08626818656921387,
"learning_rate": 4.412e-05,
"loss": 6.0908,
"step": 34200
},
{
"epoch": 2.74,
"grad_norm": 0.08773393929004669,
"learning_rate": 4.345333333333333e-05,
"loss": 6.129,
"step": 34250
},
{
"epoch": 2.7439999999999998,
"grad_norm": 0.06979772448539734,
"learning_rate": 4.278666666666667e-05,
"loss": 6.1147,
"step": 34300
},
{
"epoch": 2.748,
"grad_norm": 0.11756564676761627,
"learning_rate": 4.2119999999999997e-05,
"loss": 6.0874,
"step": 34350
},
{
"epoch": 2.752,
"grad_norm": 0.09203479439020157,
"learning_rate": 4.145333333333334e-05,
"loss": 6.125,
"step": 34400
},
{
"epoch": 2.7560000000000002,
"grad_norm": 0.06162901222705841,
"learning_rate": 4.078666666666667e-05,
"loss": 6.1099,
"step": 34450
},
{
"epoch": 2.76,
"grad_norm": 0.0849837139248848,
"learning_rate": 4.012e-05,
"loss": 6.1014,
"step": 34500
},
{
"epoch": 2.7640000000000002,
"grad_norm": 0.08979029953479767,
"learning_rate": 3.945333333333334e-05,
"loss": 6.1152,
"step": 34550
},
{
"epoch": 2.768,
"grad_norm": 0.0808635950088501,
"learning_rate": 3.8786666666666666e-05,
"loss": 6.149,
"step": 34600
},
{
"epoch": 2.7720000000000002,
"grad_norm": 0.08533049374818802,
"learning_rate": 3.812e-05,
"loss": 6.1346,
"step": 34650
},
{
"epoch": 2.776,
"grad_norm": 0.08388949930667877,
"learning_rate": 3.745333333333333e-05,
"loss": 6.1378,
"step": 34700
},
{
"epoch": 2.7800000000000002,
"grad_norm": 0.08051043003797531,
"learning_rate": 3.678666666666667e-05,
"loss": 6.1101,
"step": 34750
},
{
"epoch": 2.784,
"grad_norm": 0.0936824306845665,
"learning_rate": 3.612e-05,
"loss": 6.1144,
"step": 34800
},
{
"epoch": 2.7880000000000003,
"grad_norm": 0.07269632816314697,
"learning_rate": 3.5453333333333335e-05,
"loss": 6.1271,
"step": 34850
},
{
"epoch": 2.792,
"grad_norm": 0.19840411841869354,
"learning_rate": 3.478666666666667e-05,
"loss": 6.1315,
"step": 34900
},
{
"epoch": 2.7960000000000003,
"grad_norm": 0.10602524131536484,
"learning_rate": 3.412e-05,
"loss": 6.1299,
"step": 34950
},
{
"epoch": 2.8,
"grad_norm": 0.07893314957618713,
"learning_rate": 3.3453333333333334e-05,
"loss": 6.0895,
"step": 35000
},
{
"epoch": 2.8040000000000003,
"grad_norm": 0.05755239352583885,
"learning_rate": 3.278666666666667e-05,
"loss": 6.144,
"step": 35050
},
{
"epoch": 2.808,
"grad_norm": 0.07229039072990417,
"learning_rate": 3.2120000000000004e-05,
"loss": 6.1229,
"step": 35100
},
{
"epoch": 2.8120000000000003,
"grad_norm": 0.07666599005460739,
"learning_rate": 3.145333333333333e-05,
"loss": 6.1365,
"step": 35150
},
{
"epoch": 2.816,
"grad_norm": 0.09449343383312225,
"learning_rate": 3.08e-05,
"loss": 6.1162,
"step": 35200
},
{
"epoch": 2.82,
"grad_norm": 0.07590517401695251,
"learning_rate": 3.0133333333333335e-05,
"loss": 6.1212,
"step": 35250
},
{
"epoch": 2.824,
"grad_norm": 0.07829451560974121,
"learning_rate": 2.9466666666666667e-05,
"loss": 6.1286,
"step": 35300
},
{
"epoch": 2.828,
"grad_norm": 0.14728105068206787,
"learning_rate": 2.88e-05,
"loss": 6.1441,
"step": 35350
},
{
"epoch": 2.832,
"grad_norm": 0.06541574746370316,
"learning_rate": 2.8133333333333334e-05,
"loss": 6.1126,
"step": 35400
},
{
"epoch": 2.836,
"grad_norm": 0.08519309014081955,
"learning_rate": 2.746666666666667e-05,
"loss": 6.1251,
"step": 35450
},
{
"epoch": 2.84,
"grad_norm": 0.07452036440372467,
"learning_rate": 2.68e-05,
"loss": 6.1373,
"step": 35500
},
{
"epoch": 2.844,
"grad_norm": 0.07091843336820602,
"learning_rate": 2.6133333333333336e-05,
"loss": 6.1448,
"step": 35550
},
{
"epoch": 2.848,
"grad_norm": 0.08554837852716446,
"learning_rate": 2.5466666666666665e-05,
"loss": 6.1098,
"step": 35600
},
{
"epoch": 2.852,
"grad_norm": 0.07018575817346573,
"learning_rate": 2.48e-05,
"loss": 6.1158,
"step": 35650
},
{
"epoch": 2.856,
"grad_norm": 0.0694245770573616,
"learning_rate": 2.4133333333333335e-05,
"loss": 6.1219,
"step": 35700
},
{
"epoch": 2.86,
"grad_norm": 0.08822119981050491,
"learning_rate": 2.3466666666666667e-05,
"loss": 6.1385,
"step": 35750
},
{
"epoch": 2.864,
"grad_norm": 0.07459286600351334,
"learning_rate": 2.2800000000000002e-05,
"loss": 6.1076,
"step": 35800
},
{
"epoch": 2.868,
"grad_norm": 0.08570704609155655,
"learning_rate": 2.2133333333333334e-05,
"loss": 6.1418,
"step": 35850
},
{
"epoch": 2.872,
"grad_norm": 0.07626312226057053,
"learning_rate": 2.1466666666666666e-05,
"loss": 6.142,
"step": 35900
},
{
"epoch": 2.876,
"grad_norm": 0.10263622552156448,
"learning_rate": 2.08e-05,
"loss": 6.1037,
"step": 35950
},
{
"epoch": 2.88,
"grad_norm": 0.10711517930030823,
"learning_rate": 2.0133333333333333e-05,
"loss": 6.1519,
"step": 36000
},
{
"epoch": 2.884,
"grad_norm": 0.09864257276058197,
"learning_rate": 1.9466666666666668e-05,
"loss": 6.1386,
"step": 36050
},
{
"epoch": 2.888,
"grad_norm": 0.08262020349502563,
"learning_rate": 1.88e-05,
"loss": 6.1134,
"step": 36100
},
{
"epoch": 2.892,
"grad_norm": 0.10153469443321228,
"learning_rate": 1.8133333333333335e-05,
"loss": 6.1148,
"step": 36150
},
{
"epoch": 2.896,
"grad_norm": 0.0651559978723526,
"learning_rate": 1.7466666666666667e-05,
"loss": 6.1041,
"step": 36200
},
{
"epoch": 2.9,
"grad_norm": 0.0809178426861763,
"learning_rate": 1.68e-05,
"loss": 6.1336,
"step": 36250
},
{
"epoch": 2.904,
"grad_norm": 0.0788222923874855,
"learning_rate": 1.6133333333333334e-05,
"loss": 6.1158,
"step": 36300
},
{
"epoch": 2.908,
"grad_norm": 0.0782528892159462,
"learning_rate": 1.5466666666666665e-05,
"loss": 6.1229,
"step": 36350
},
{
"epoch": 2.912,
"grad_norm": 0.09977816790342331,
"learning_rate": 1.48e-05,
"loss": 6.095,
"step": 36400
},
{
"epoch": 2.916,
"grad_norm": 0.09077376872301102,
"learning_rate": 1.4133333333333332e-05,
"loss": 6.0834,
"step": 36450
},
{
"epoch": 2.92,
"grad_norm": 0.08714742958545685,
"learning_rate": 1.3466666666666668e-05,
"loss": 6.1146,
"step": 36500
},
{
"epoch": 2.924,
"grad_norm": 0.06922514736652374,
"learning_rate": 1.2800000000000001e-05,
"loss": 6.104,
"step": 36550
},
{
"epoch": 2.928,
"grad_norm": 0.08770804107189178,
"learning_rate": 1.2133333333333333e-05,
"loss": 6.1223,
"step": 36600
},
{
"epoch": 2.932,
"grad_norm": 0.0728972777724266,
"learning_rate": 1.1466666666666666e-05,
"loss": 6.1327,
"step": 36650
},
{
"epoch": 2.936,
"grad_norm": 0.08060386031866074,
"learning_rate": 1.0800000000000002e-05,
"loss": 6.0762,
"step": 36700
},
{
"epoch": 2.94,
"grad_norm": 0.20724505186080933,
"learning_rate": 1.0133333333333333e-05,
"loss": 6.137,
"step": 36750
},
{
"epoch": 2.944,
"grad_norm": 0.07640311121940613,
"learning_rate": 9.466666666666667e-06,
"loss": 6.11,
"step": 36800
},
{
"epoch": 2.948,
"grad_norm": 0.06287379562854767,
"learning_rate": 8.8e-06,
"loss": 6.1459,
"step": 36850
},
{
"epoch": 2.952,
"grad_norm": 0.0632018968462944,
"learning_rate": 8.133333333333332e-06,
"loss": 6.1029,
"step": 36900
},
{
"epoch": 2.956,
"grad_norm": 0.09699801355600357,
"learning_rate": 7.466666666666667e-06,
"loss": 6.1113,
"step": 36950
},
{
"epoch": 2.96,
"grad_norm": 0.08257745951414108,
"learning_rate": 6.8e-06,
"loss": 6.0975,
"step": 37000
},
{
"epoch": 2.964,
"grad_norm": 0.08475156128406525,
"learning_rate": 6.133333333333334e-06,
"loss": 6.0418,
"step": 37050
},
{
"epoch": 2.968,
"grad_norm": 0.08546514809131622,
"learning_rate": 5.466666666666666e-06,
"loss": 6.1068,
"step": 37100
},
{
"epoch": 2.972,
"grad_norm": 0.07705029845237732,
"learning_rate": 4.8e-06,
"loss": 6.1113,
"step": 37150
},
{
"epoch": 2.976,
"grad_norm": 0.09038646519184113,
"learning_rate": 4.133333333333333e-06,
"loss": 6.1117,
"step": 37200
},
{
"epoch": 2.98,
"grad_norm": 0.06896337121725082,
"learning_rate": 3.4666666666666664e-06,
"loss": 6.0953,
"step": 37250
},
{
"epoch": 2.984,
"grad_norm": 0.07421049475669861,
"learning_rate": 2.8e-06,
"loss": 6.1111,
"step": 37300
},
{
"epoch": 2.988,
"grad_norm": 0.09223341941833496,
"learning_rate": 2.1333333333333334e-06,
"loss": 6.1383,
"step": 37350
},
{
"epoch": 2.992,
"grad_norm": 0.09603408724069595,
"learning_rate": 1.4666666666666667e-06,
"loss": 6.1156,
"step": 37400
},
{
"epoch": 2.996,
"grad_norm": 0.08187619596719742,
"learning_rate": 8.000000000000001e-07,
"loss": 6.1118,
"step": 37450
},
{
"epoch": 3.0,
"grad_norm": 0.07570488750934601,
"learning_rate": 1.3333333333333334e-07,
"loss": 6.0999,
"step": 37500
},
{
"epoch": 3.0,
"eval_bleu": 0.823943051750742,
"eval_cer": 0.02620693733959594,
"eval_f1": 0.9229451426010926,
"eval_loss": 6.104158401489258,
"eval_meteor": 0.914842353945872,
"eval_runtime": 585.9346,
"eval_samples_per_second": 8.533,
"eval_steps_per_second": 0.268,
"eval_wer": 0.08241131435383867,
"step": 37500
},
{
"epoch": 3.0,
"step": 37500,
"total_flos": 6.544636730199245e+17,
"train_loss": 6.135559250488281,
"train_runtime": 6379.9802,
"train_samples_per_second": 188.084,
"train_steps_per_second": 5.878
}
],
"logging_steps": 50,
"max_steps": 37500,
"num_input_tokens_seen": 0,
"num_train_epochs": 3,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 6.544636730199245e+17,
"train_batch_size": 32,
"trial_name": null,
"trial_params": null
}