|
{ |
|
"best_global_step": 37500, |
|
"best_metric": 6.10477352142334, |
|
"best_model_checkpoint": "/work/HauSeq/train_results/results_bart/m2m100_418M/checkpoint-37500", |
|
"epoch": 3.0, |
|
"eval_steps": 500, |
|
"global_step": 37500, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.004, |
|
"grad_norm": 0.17288358509540558, |
|
"learning_rate": 0.0004993333333333334, |
|
"loss": 7.5173, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.008, |
|
"grad_norm": 0.1369473934173584, |
|
"learning_rate": 0.0004986666666666667, |
|
"loss": 6.3329, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.012, |
|
"grad_norm": 0.11485234647989273, |
|
"learning_rate": 0.000498, |
|
"loss": 6.2476, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 0.016, |
|
"grad_norm": 0.18780231475830078, |
|
"learning_rate": 0.0004973333333333334, |
|
"loss": 6.2647, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.02, |
|
"grad_norm": 0.16586555540561676, |
|
"learning_rate": 0.0004966666666666666, |
|
"loss": 6.2735, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 0.024, |
|
"grad_norm": 0.09097462147474289, |
|
"learning_rate": 0.000496, |
|
"loss": 6.2276, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 0.028, |
|
"grad_norm": 0.09753222018480301, |
|
"learning_rate": 0.0004953333333333334, |
|
"loss": 6.22, |
|
"step": 350 |
|
}, |
|
{ |
|
"epoch": 0.032, |
|
"grad_norm": 0.1208500862121582, |
|
"learning_rate": 0.0004946666666666667, |
|
"loss": 6.219, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 0.036, |
|
"grad_norm": 0.12027961760759354, |
|
"learning_rate": 0.000494, |
|
"loss": 6.2154, |
|
"step": 450 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"grad_norm": 0.07851122319698334, |
|
"learning_rate": 0.0004933333333333334, |
|
"loss": 6.2141, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 0.044, |
|
"grad_norm": 0.1014733538031578, |
|
"learning_rate": 0.0004926666666666666, |
|
"loss": 6.1975, |
|
"step": 550 |
|
}, |
|
{ |
|
"epoch": 0.048, |
|
"grad_norm": 0.08273967355489731, |
|
"learning_rate": 0.000492, |
|
"loss": 6.1848, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 0.052, |
|
"grad_norm": 0.07933519780635834, |
|
"learning_rate": 0.0004913333333333333, |
|
"loss": 6.1911, |
|
"step": 650 |
|
}, |
|
{ |
|
"epoch": 0.056, |
|
"grad_norm": 0.0944221243262291, |
|
"learning_rate": 0.0004906666666666667, |
|
"loss": 6.1872, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 0.06, |
|
"grad_norm": 0.12889821827411652, |
|
"learning_rate": 0.00049, |
|
"loss": 6.1885, |
|
"step": 750 |
|
}, |
|
{ |
|
"epoch": 0.064, |
|
"grad_norm": 0.09511765837669373, |
|
"learning_rate": 0.0004893333333333334, |
|
"loss": 6.1849, |
|
"step": 800 |
|
}, |
|
{ |
|
"epoch": 0.068, |
|
"grad_norm": 0.18209193646907806, |
|
"learning_rate": 0.0004886666666666667, |
|
"loss": 6.159, |
|
"step": 850 |
|
}, |
|
{ |
|
"epoch": 0.072, |
|
"grad_norm": 0.09750299155712128, |
|
"learning_rate": 0.000488, |
|
"loss": 6.192, |
|
"step": 900 |
|
}, |
|
{ |
|
"epoch": 0.076, |
|
"grad_norm": 0.09913253784179688, |
|
"learning_rate": 0.0004873333333333333, |
|
"loss": 6.1639, |
|
"step": 950 |
|
}, |
|
{ |
|
"epoch": 0.08, |
|
"grad_norm": 0.08655453473329544, |
|
"learning_rate": 0.0004866666666666667, |
|
"loss": 6.1418, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 0.084, |
|
"grad_norm": 0.12075524777173996, |
|
"learning_rate": 0.000486, |
|
"loss": 6.1866, |
|
"step": 1050 |
|
}, |
|
{ |
|
"epoch": 0.088, |
|
"grad_norm": 0.09878800064325333, |
|
"learning_rate": 0.00048533333333333333, |
|
"loss": 6.1778, |
|
"step": 1100 |
|
}, |
|
{ |
|
"epoch": 0.092, |
|
"grad_norm": 0.10742035508155823, |
|
"learning_rate": 0.0004846666666666667, |
|
"loss": 6.192, |
|
"step": 1150 |
|
}, |
|
{ |
|
"epoch": 0.096, |
|
"grad_norm": 0.09515393525362015, |
|
"learning_rate": 0.000484, |
|
"loss": 6.1412, |
|
"step": 1200 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"grad_norm": 0.3111189603805542, |
|
"learning_rate": 0.00048333333333333334, |
|
"loss": 6.1597, |
|
"step": 1250 |
|
}, |
|
{ |
|
"epoch": 0.104, |
|
"grad_norm": 0.09835302084684372, |
|
"learning_rate": 0.00048266666666666667, |
|
"loss": 6.1455, |
|
"step": 1300 |
|
}, |
|
{ |
|
"epoch": 0.108, |
|
"grad_norm": 0.08931953459978104, |
|
"learning_rate": 0.000482, |
|
"loss": 6.1648, |
|
"step": 1350 |
|
}, |
|
{ |
|
"epoch": 0.112, |
|
"grad_norm": 0.09964313358068466, |
|
"learning_rate": 0.00048133333333333334, |
|
"loss": 6.1533, |
|
"step": 1400 |
|
}, |
|
{ |
|
"epoch": 0.116, |
|
"grad_norm": 0.08410210907459259, |
|
"learning_rate": 0.0004806666666666667, |
|
"loss": 6.1526, |
|
"step": 1450 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"grad_norm": 0.10518144071102142, |
|
"learning_rate": 0.00048, |
|
"loss": 6.1492, |
|
"step": 1500 |
|
}, |
|
{ |
|
"epoch": 0.124, |
|
"grad_norm": 0.12738625705242157, |
|
"learning_rate": 0.00047933333333333335, |
|
"loss": 6.1581, |
|
"step": 1550 |
|
}, |
|
{ |
|
"epoch": 0.128, |
|
"grad_norm": 0.10969135165214539, |
|
"learning_rate": 0.0004786666666666667, |
|
"loss": 6.1859, |
|
"step": 1600 |
|
}, |
|
{ |
|
"epoch": 0.132, |
|
"grad_norm": 0.08940576761960983, |
|
"learning_rate": 0.00047799999999999996, |
|
"loss": 6.1313, |
|
"step": 1650 |
|
}, |
|
{ |
|
"epoch": 0.136, |
|
"grad_norm": 0.0728912279009819, |
|
"learning_rate": 0.00047733333333333335, |
|
"loss": 6.1411, |
|
"step": 1700 |
|
}, |
|
{ |
|
"epoch": 0.14, |
|
"grad_norm": 0.08607441186904907, |
|
"learning_rate": 0.0004766666666666667, |
|
"loss": 6.1608, |
|
"step": 1750 |
|
}, |
|
{ |
|
"epoch": 0.144, |
|
"grad_norm": 0.09020092338323593, |
|
"learning_rate": 0.00047599999999999997, |
|
"loss": 6.1538, |
|
"step": 1800 |
|
}, |
|
{ |
|
"epoch": 0.148, |
|
"grad_norm": 0.08604450523853302, |
|
"learning_rate": 0.00047533333333333336, |
|
"loss": 6.1434, |
|
"step": 1850 |
|
}, |
|
{ |
|
"epoch": 0.152, |
|
"grad_norm": 0.09820722788572311, |
|
"learning_rate": 0.0004746666666666667, |
|
"loss": 6.1263, |
|
"step": 1900 |
|
}, |
|
{ |
|
"epoch": 0.156, |
|
"grad_norm": 0.1608031839132309, |
|
"learning_rate": 0.000474, |
|
"loss": 6.1469, |
|
"step": 1950 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"grad_norm": 0.10718920081853867, |
|
"learning_rate": 0.00047333333333333336, |
|
"loss": 6.1502, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 0.164, |
|
"grad_norm": 0.12366873025894165, |
|
"learning_rate": 0.0004726666666666667, |
|
"loss": 6.1349, |
|
"step": 2050 |
|
}, |
|
{ |
|
"epoch": 0.168, |
|
"grad_norm": 0.10269736498594284, |
|
"learning_rate": 0.000472, |
|
"loss": 6.1487, |
|
"step": 2100 |
|
}, |
|
{ |
|
"epoch": 0.172, |
|
"grad_norm": 0.0781385749578476, |
|
"learning_rate": 0.0004713333333333333, |
|
"loss": 6.1683, |
|
"step": 2150 |
|
}, |
|
{ |
|
"epoch": 0.176, |
|
"grad_norm": 0.0976349413394928, |
|
"learning_rate": 0.0004706666666666667, |
|
"loss": 6.1837, |
|
"step": 2200 |
|
}, |
|
{ |
|
"epoch": 0.18, |
|
"grad_norm": 0.10818152874708176, |
|
"learning_rate": 0.00047, |
|
"loss": 6.1191, |
|
"step": 2250 |
|
}, |
|
{ |
|
"epoch": 0.184, |
|
"grad_norm": 0.09553058445453644, |
|
"learning_rate": 0.0004693333333333333, |
|
"loss": 6.1407, |
|
"step": 2300 |
|
}, |
|
{ |
|
"epoch": 0.188, |
|
"grad_norm": 0.09858255833387375, |
|
"learning_rate": 0.0004686666666666667, |
|
"loss": 6.1636, |
|
"step": 2350 |
|
}, |
|
{ |
|
"epoch": 0.192, |
|
"grad_norm": 0.08040735125541687, |
|
"learning_rate": 0.00046800000000000005, |
|
"loss": 6.1569, |
|
"step": 2400 |
|
}, |
|
{ |
|
"epoch": 0.196, |
|
"grad_norm": 0.12108004093170166, |
|
"learning_rate": 0.0004673333333333333, |
|
"loss": 6.146, |
|
"step": 2450 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"grad_norm": 0.10650964081287384, |
|
"learning_rate": 0.00046666666666666666, |
|
"loss": 6.1913, |
|
"step": 2500 |
|
}, |
|
{ |
|
"epoch": 0.204, |
|
"grad_norm": 0.09476235508918762, |
|
"learning_rate": 0.00046600000000000005, |
|
"loss": 6.1379, |
|
"step": 2550 |
|
}, |
|
{ |
|
"epoch": 0.208, |
|
"grad_norm": 0.13399960100650787, |
|
"learning_rate": 0.00046533333333333333, |
|
"loss": 6.1157, |
|
"step": 2600 |
|
}, |
|
{ |
|
"epoch": 0.212, |
|
"grad_norm": 0.0917024314403534, |
|
"learning_rate": 0.00046466666666666667, |
|
"loss": 6.1857, |
|
"step": 2650 |
|
}, |
|
{ |
|
"epoch": 0.216, |
|
"grad_norm": 0.13566653430461884, |
|
"learning_rate": 0.00046400000000000006, |
|
"loss": 6.1392, |
|
"step": 2700 |
|
}, |
|
{ |
|
"epoch": 0.22, |
|
"grad_norm": 0.07204718142747879, |
|
"learning_rate": 0.00046333333333333334, |
|
"loss": 6.1463, |
|
"step": 2750 |
|
}, |
|
{ |
|
"epoch": 0.224, |
|
"grad_norm": 0.09178570657968521, |
|
"learning_rate": 0.0004626666666666667, |
|
"loss": 6.1788, |
|
"step": 2800 |
|
}, |
|
{ |
|
"epoch": 0.228, |
|
"grad_norm": 0.08382175862789154, |
|
"learning_rate": 0.000462, |
|
"loss": 6.1409, |
|
"step": 2850 |
|
}, |
|
{ |
|
"epoch": 0.232, |
|
"grad_norm": 0.10026837140321732, |
|
"learning_rate": 0.00046133333333333334, |
|
"loss": 6.1417, |
|
"step": 2900 |
|
}, |
|
{ |
|
"epoch": 0.236, |
|
"grad_norm": 0.0923471599817276, |
|
"learning_rate": 0.0004606666666666667, |
|
"loss": 6.13, |
|
"step": 2950 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"grad_norm": 0.12011588364839554, |
|
"learning_rate": 0.00046, |
|
"loss": 6.1638, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 0.244, |
|
"grad_norm": 0.0990859642624855, |
|
"learning_rate": 0.00045933333333333335, |
|
"loss": 6.1821, |
|
"step": 3050 |
|
}, |
|
{ |
|
"epoch": 0.248, |
|
"grad_norm": 0.08359402418136597, |
|
"learning_rate": 0.0004586666666666667, |
|
"loss": 6.1458, |
|
"step": 3100 |
|
}, |
|
{ |
|
"epoch": 0.252, |
|
"grad_norm": 0.06513530761003494, |
|
"learning_rate": 0.000458, |
|
"loss": 6.1688, |
|
"step": 3150 |
|
}, |
|
{ |
|
"epoch": 0.256, |
|
"grad_norm": 0.12649784982204437, |
|
"learning_rate": 0.0004573333333333333, |
|
"loss": 6.1539, |
|
"step": 3200 |
|
}, |
|
{ |
|
"epoch": 0.26, |
|
"grad_norm": 0.13505388796329498, |
|
"learning_rate": 0.0004566666666666667, |
|
"loss": 6.1542, |
|
"step": 3250 |
|
}, |
|
{ |
|
"epoch": 0.264, |
|
"grad_norm": 0.1346210092306137, |
|
"learning_rate": 0.000456, |
|
"loss": 6.1719, |
|
"step": 3300 |
|
}, |
|
{ |
|
"epoch": 0.268, |
|
"grad_norm": 0.1194111704826355, |
|
"learning_rate": 0.0004553333333333333, |
|
"loss": 6.1706, |
|
"step": 3350 |
|
}, |
|
{ |
|
"epoch": 0.272, |
|
"grad_norm": 0.16909293830394745, |
|
"learning_rate": 0.0004546666666666667, |
|
"loss": 6.1582, |
|
"step": 3400 |
|
}, |
|
{ |
|
"epoch": 0.276, |
|
"grad_norm": 0.08598814159631729, |
|
"learning_rate": 0.00045400000000000003, |
|
"loss": 6.1142, |
|
"step": 3450 |
|
}, |
|
{ |
|
"epoch": 0.28, |
|
"grad_norm": 0.19381625950336456, |
|
"learning_rate": 0.0004533333333333333, |
|
"loss": 6.1472, |
|
"step": 3500 |
|
}, |
|
{ |
|
"epoch": 0.284, |
|
"grad_norm": 0.09644381701946259, |
|
"learning_rate": 0.00045266666666666665, |
|
"loss": 6.1557, |
|
"step": 3550 |
|
}, |
|
{ |
|
"epoch": 0.288, |
|
"grad_norm": 0.09698914736509323, |
|
"learning_rate": 0.00045200000000000004, |
|
"loss": 6.1554, |
|
"step": 3600 |
|
}, |
|
{ |
|
"epoch": 0.292, |
|
"grad_norm": 0.11119239777326584, |
|
"learning_rate": 0.0004513333333333333, |
|
"loss": 6.1104, |
|
"step": 3650 |
|
}, |
|
{ |
|
"epoch": 0.296, |
|
"grad_norm": 0.10751861333847046, |
|
"learning_rate": 0.00045066666666666665, |
|
"loss": 6.1289, |
|
"step": 3700 |
|
}, |
|
{ |
|
"epoch": 0.3, |
|
"grad_norm": 0.09202956408262253, |
|
"learning_rate": 0.00045000000000000004, |
|
"loss": 6.1152, |
|
"step": 3750 |
|
}, |
|
{ |
|
"epoch": 0.304, |
|
"grad_norm": 0.08296677470207214, |
|
"learning_rate": 0.0004493333333333333, |
|
"loss": 6.1296, |
|
"step": 3800 |
|
}, |
|
{ |
|
"epoch": 0.308, |
|
"grad_norm": 0.09129928052425385, |
|
"learning_rate": 0.00044866666666666666, |
|
"loss": 6.1447, |
|
"step": 3850 |
|
}, |
|
{ |
|
"epoch": 0.312, |
|
"grad_norm": 0.11897583305835724, |
|
"learning_rate": 0.000448, |
|
"loss": 6.122, |
|
"step": 3900 |
|
}, |
|
{ |
|
"epoch": 0.316, |
|
"grad_norm": 0.08367006480693817, |
|
"learning_rate": 0.0004473333333333334, |
|
"loss": 6.1359, |
|
"step": 3950 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"grad_norm": 0.09747407585382462, |
|
"learning_rate": 0.00044666666666666666, |
|
"loss": 6.1596, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 0.324, |
|
"grad_norm": 0.08322244137525558, |
|
"learning_rate": 0.0004460133333333333, |
|
"loss": 6.1501, |
|
"step": 4050 |
|
}, |
|
{ |
|
"epoch": 0.328, |
|
"grad_norm": 0.06503091752529144, |
|
"learning_rate": 0.00044536, |
|
"loss": 6.1429, |
|
"step": 4100 |
|
}, |
|
{ |
|
"epoch": 0.332, |
|
"grad_norm": 0.1123075857758522, |
|
"learning_rate": 0.00044469333333333334, |
|
"loss": 6.1278, |
|
"step": 4150 |
|
}, |
|
{ |
|
"epoch": 0.336, |
|
"grad_norm": 0.08546511083841324, |
|
"learning_rate": 0.0004440266666666667, |
|
"loss": 6.1314, |
|
"step": 4200 |
|
}, |
|
{ |
|
"epoch": 0.34, |
|
"grad_norm": 0.09403111040592194, |
|
"learning_rate": 0.00044336, |
|
"loss": 6.1089, |
|
"step": 4250 |
|
}, |
|
{ |
|
"epoch": 0.344, |
|
"grad_norm": 0.14043301343917847, |
|
"learning_rate": 0.00044269333333333335, |
|
"loss": 6.1172, |
|
"step": 4300 |
|
}, |
|
{ |
|
"epoch": 0.348, |
|
"grad_norm": 0.12077099084854126, |
|
"learning_rate": 0.0004420266666666667, |
|
"loss": 6.1376, |
|
"step": 4350 |
|
}, |
|
{ |
|
"epoch": 0.352, |
|
"grad_norm": 0.12638172507286072, |
|
"learning_rate": 0.00044135999999999996, |
|
"loss": 6.1238, |
|
"step": 4400 |
|
}, |
|
{ |
|
"epoch": 0.356, |
|
"grad_norm": 0.1000106930732727, |
|
"learning_rate": 0.00044069333333333335, |
|
"loss": 6.1374, |
|
"step": 4450 |
|
}, |
|
{ |
|
"epoch": 0.36, |
|
"grad_norm": 0.08081661909818649, |
|
"learning_rate": 0.0004400266666666667, |
|
"loss": 6.1436, |
|
"step": 4500 |
|
}, |
|
{ |
|
"epoch": 0.364, |
|
"grad_norm": 0.36294370889663696, |
|
"learning_rate": 0.00043935999999999997, |
|
"loss": 6.1199, |
|
"step": 4550 |
|
}, |
|
{ |
|
"epoch": 0.368, |
|
"grad_norm": 0.09185244888067245, |
|
"learning_rate": 0.00043869333333333336, |
|
"loss": 6.1628, |
|
"step": 4600 |
|
}, |
|
{ |
|
"epoch": 0.372, |
|
"grad_norm": 0.082149438560009, |
|
"learning_rate": 0.0004380266666666667, |
|
"loss": 6.1346, |
|
"step": 4650 |
|
}, |
|
{ |
|
"epoch": 0.376, |
|
"grad_norm": 0.15230901539325714, |
|
"learning_rate": 0.00043736000000000003, |
|
"loss": 6.1291, |
|
"step": 4700 |
|
}, |
|
{ |
|
"epoch": 0.38, |
|
"grad_norm": 0.13319584727287292, |
|
"learning_rate": 0.0004366933333333333, |
|
"loss": 6.162, |
|
"step": 4750 |
|
}, |
|
{ |
|
"epoch": 0.384, |
|
"grad_norm": 0.10392823070287704, |
|
"learning_rate": 0.0004360266666666667, |
|
"loss": 6.1072, |
|
"step": 4800 |
|
}, |
|
{ |
|
"epoch": 0.388, |
|
"grad_norm": 0.11571666598320007, |
|
"learning_rate": 0.00043536000000000003, |
|
"loss": 6.144, |
|
"step": 4850 |
|
}, |
|
{ |
|
"epoch": 0.392, |
|
"grad_norm": 0.08762400597333908, |
|
"learning_rate": 0.0004346933333333333, |
|
"loss": 6.1326, |
|
"step": 4900 |
|
}, |
|
{ |
|
"epoch": 0.396, |
|
"grad_norm": 0.09438224136829376, |
|
"learning_rate": 0.0004340266666666667, |
|
"loss": 6.1615, |
|
"step": 4950 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"grad_norm": 0.10719005763530731, |
|
"learning_rate": 0.00043336000000000004, |
|
"loss": 6.1203, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 0.404, |
|
"grad_norm": 0.08503378927707672, |
|
"learning_rate": 0.0004326933333333333, |
|
"loss": 6.1329, |
|
"step": 5050 |
|
}, |
|
{ |
|
"epoch": 0.408, |
|
"grad_norm": 0.11886569857597351, |
|
"learning_rate": 0.00043202666666666665, |
|
"loss": 6.1303, |
|
"step": 5100 |
|
}, |
|
{ |
|
"epoch": 0.412, |
|
"grad_norm": 0.08584501594305038, |
|
"learning_rate": 0.00043136000000000004, |
|
"loss": 6.1346, |
|
"step": 5150 |
|
}, |
|
{ |
|
"epoch": 0.416, |
|
"grad_norm": 0.1441144049167633, |
|
"learning_rate": 0.0004306933333333333, |
|
"loss": 6.1348, |
|
"step": 5200 |
|
}, |
|
{ |
|
"epoch": 0.42, |
|
"grad_norm": 0.08251897245645523, |
|
"learning_rate": 0.00043002666666666666, |
|
"loss": 6.1407, |
|
"step": 5250 |
|
}, |
|
{ |
|
"epoch": 0.424, |
|
"grad_norm": 0.059318505227565765, |
|
"learning_rate": 0.00042936000000000005, |
|
"loss": 6.1359, |
|
"step": 5300 |
|
}, |
|
{ |
|
"epoch": 0.428, |
|
"grad_norm": 0.09927847981452942, |
|
"learning_rate": 0.00042869333333333333, |
|
"loss": 6.1554, |
|
"step": 5350 |
|
}, |
|
{ |
|
"epoch": 0.432, |
|
"grad_norm": 0.08691399544477463, |
|
"learning_rate": 0.00042802666666666667, |
|
"loss": 6.1437, |
|
"step": 5400 |
|
}, |
|
{ |
|
"epoch": 0.436, |
|
"grad_norm": 0.09928593784570694, |
|
"learning_rate": 0.00042736, |
|
"loss": 6.1244, |
|
"step": 5450 |
|
}, |
|
{ |
|
"epoch": 0.44, |
|
"grad_norm": 0.11381001770496368, |
|
"learning_rate": 0.00042669333333333334, |
|
"loss": 6.149, |
|
"step": 5500 |
|
}, |
|
{ |
|
"epoch": 0.444, |
|
"grad_norm": 0.0796261876821518, |
|
"learning_rate": 0.00042602666666666667, |
|
"loss": 6.1446, |
|
"step": 5550 |
|
}, |
|
{ |
|
"epoch": 0.448, |
|
"grad_norm": 0.08676674962043762, |
|
"learning_rate": 0.00042536, |
|
"loss": 6.1334, |
|
"step": 5600 |
|
}, |
|
{ |
|
"epoch": 0.452, |
|
"grad_norm": 0.1110544204711914, |
|
"learning_rate": 0.00042469333333333334, |
|
"loss": 6.1194, |
|
"step": 5650 |
|
}, |
|
{ |
|
"epoch": 0.456, |
|
"grad_norm": 0.07186205685138702, |
|
"learning_rate": 0.0004240266666666667, |
|
"loss": 6.1437, |
|
"step": 5700 |
|
}, |
|
{ |
|
"epoch": 0.46, |
|
"grad_norm": 0.09055492281913757, |
|
"learning_rate": 0.00042336, |
|
"loss": 6.1664, |
|
"step": 5750 |
|
}, |
|
{ |
|
"epoch": 0.464, |
|
"grad_norm": 0.11605997383594513, |
|
"learning_rate": 0.0004226933333333333, |
|
"loss": 6.1497, |
|
"step": 5800 |
|
}, |
|
{ |
|
"epoch": 0.468, |
|
"grad_norm": 0.11643537878990173, |
|
"learning_rate": 0.0004220266666666667, |
|
"loss": 6.1578, |
|
"step": 5850 |
|
}, |
|
{ |
|
"epoch": 0.472, |
|
"grad_norm": 0.0981464758515358, |
|
"learning_rate": 0.00042136, |
|
"loss": 6.1255, |
|
"step": 5900 |
|
}, |
|
{ |
|
"epoch": 0.476, |
|
"grad_norm": 0.08023341000080109, |
|
"learning_rate": 0.0004206933333333333, |
|
"loss": 6.1407, |
|
"step": 5950 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"grad_norm": 0.07115794718265533, |
|
"learning_rate": 0.0004200266666666667, |
|
"loss": 6.1528, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 0.484, |
|
"grad_norm": 0.12999577820301056, |
|
"learning_rate": 0.00041936, |
|
"loss": 6.1304, |
|
"step": 6050 |
|
}, |
|
{ |
|
"epoch": 0.488, |
|
"grad_norm": 0.09674675762653351, |
|
"learning_rate": 0.0004186933333333333, |
|
"loss": 6.1362, |
|
"step": 6100 |
|
}, |
|
{ |
|
"epoch": 0.492, |
|
"grad_norm": 0.11859974265098572, |
|
"learning_rate": 0.00041802666666666664, |
|
"loss": 6.1352, |
|
"step": 6150 |
|
}, |
|
{ |
|
"epoch": 0.496, |
|
"grad_norm": 0.11366712301969528, |
|
"learning_rate": 0.00041736000000000003, |
|
"loss": 6.1393, |
|
"step": 6200 |
|
}, |
|
{ |
|
"epoch": 0.5, |
|
"grad_norm": 0.10001197457313538, |
|
"learning_rate": 0.00041669333333333336, |
|
"loss": 6.1269, |
|
"step": 6250 |
|
}, |
|
{ |
|
"epoch": 0.504, |
|
"grad_norm": 0.12915226817131042, |
|
"learning_rate": 0.00041602666666666665, |
|
"loss": 6.1145, |
|
"step": 6300 |
|
}, |
|
{ |
|
"epoch": 0.508, |
|
"grad_norm": 0.12828227877616882, |
|
"learning_rate": 0.00041536000000000003, |
|
"loss": 6.1369, |
|
"step": 6350 |
|
}, |
|
{ |
|
"epoch": 0.512, |
|
"grad_norm": 0.10364627838134766, |
|
"learning_rate": 0.00041469333333333337, |
|
"loss": 6.15, |
|
"step": 6400 |
|
}, |
|
{ |
|
"epoch": 0.516, |
|
"grad_norm": 0.07533346116542816, |
|
"learning_rate": 0.00041402666666666665, |
|
"loss": 6.0986, |
|
"step": 6450 |
|
}, |
|
{ |
|
"epoch": 0.52, |
|
"grad_norm": 0.08103260397911072, |
|
"learning_rate": 0.00041336000000000004, |
|
"loss": 6.1353, |
|
"step": 6500 |
|
}, |
|
{ |
|
"epoch": 0.524, |
|
"grad_norm": 0.09203949570655823, |
|
"learning_rate": 0.0004126933333333334, |
|
"loss": 6.1436, |
|
"step": 6550 |
|
}, |
|
{ |
|
"epoch": 0.528, |
|
"grad_norm": 0.10133110731840134, |
|
"learning_rate": 0.00041202666666666666, |
|
"loss": 6.1553, |
|
"step": 6600 |
|
}, |
|
{ |
|
"epoch": 0.532, |
|
"grad_norm": 0.08488768339157104, |
|
"learning_rate": 0.00041136, |
|
"loss": 6.1304, |
|
"step": 6650 |
|
}, |
|
{ |
|
"epoch": 0.536, |
|
"grad_norm": 0.09025304019451141, |
|
"learning_rate": 0.0004106933333333334, |
|
"loss": 6.1567, |
|
"step": 6700 |
|
}, |
|
{ |
|
"epoch": 0.54, |
|
"grad_norm": 0.08501194417476654, |
|
"learning_rate": 0.00041002666666666666, |
|
"loss": 6.1222, |
|
"step": 6750 |
|
}, |
|
{ |
|
"epoch": 0.544, |
|
"grad_norm": 0.12507081031799316, |
|
"learning_rate": 0.0004093733333333333, |
|
"loss": 6.1505, |
|
"step": 6800 |
|
}, |
|
{ |
|
"epoch": 0.548, |
|
"grad_norm": 0.08626360446214676, |
|
"learning_rate": 0.0004087066666666667, |
|
"loss": 6.131, |
|
"step": 6850 |
|
}, |
|
{ |
|
"epoch": 0.552, |
|
"grad_norm": 0.12089431285858154, |
|
"learning_rate": 0.00040804000000000003, |
|
"loss": 6.1411, |
|
"step": 6900 |
|
}, |
|
{ |
|
"epoch": 0.556, |
|
"grad_norm": 0.0857025608420372, |
|
"learning_rate": 0.0004073733333333333, |
|
"loss": 6.1472, |
|
"step": 6950 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"grad_norm": 0.1202261671423912, |
|
"learning_rate": 0.00040670666666666665, |
|
"loss": 6.1477, |
|
"step": 7000 |
|
}, |
|
{ |
|
"epoch": 0.564, |
|
"grad_norm": 0.09355634450912476, |
|
"learning_rate": 0.00040604000000000004, |
|
"loss": 6.1491, |
|
"step": 7050 |
|
}, |
|
{ |
|
"epoch": 0.568, |
|
"grad_norm": 0.07126226276159286, |
|
"learning_rate": 0.0004053733333333333, |
|
"loss": 6.129, |
|
"step": 7100 |
|
}, |
|
{ |
|
"epoch": 0.572, |
|
"grad_norm": 0.07841909676790237, |
|
"learning_rate": 0.00040470666666666665, |
|
"loss": 6.1012, |
|
"step": 7150 |
|
}, |
|
{ |
|
"epoch": 0.576, |
|
"grad_norm": 0.14395035803318024, |
|
"learning_rate": 0.00040404000000000004, |
|
"loss": 6.1545, |
|
"step": 7200 |
|
}, |
|
{ |
|
"epoch": 0.58, |
|
"grad_norm": 0.15453246235847473, |
|
"learning_rate": 0.0004033733333333333, |
|
"loss": 6.1415, |
|
"step": 7250 |
|
}, |
|
{ |
|
"epoch": 0.584, |
|
"grad_norm": 0.1082344800233841, |
|
"learning_rate": 0.00040270666666666666, |
|
"loss": 6.1338, |
|
"step": 7300 |
|
}, |
|
{ |
|
"epoch": 0.588, |
|
"grad_norm": 0.09815361350774765, |
|
"learning_rate": 0.00040204, |
|
"loss": 6.118, |
|
"step": 7350 |
|
}, |
|
{ |
|
"epoch": 0.592, |
|
"grad_norm": 0.10957151651382446, |
|
"learning_rate": 0.0004013733333333334, |
|
"loss": 6.1205, |
|
"step": 7400 |
|
}, |
|
{ |
|
"epoch": 0.596, |
|
"grad_norm": 0.07010533660650253, |
|
"learning_rate": 0.00040070666666666666, |
|
"loss": 6.1383, |
|
"step": 7450 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"grad_norm": 0.12188254296779633, |
|
"learning_rate": 0.00040004, |
|
"loss": 6.1231, |
|
"step": 7500 |
|
}, |
|
{ |
|
"epoch": 0.604, |
|
"grad_norm": 0.12290220707654953, |
|
"learning_rate": 0.0003993733333333334, |
|
"loss": 6.1216, |
|
"step": 7550 |
|
}, |
|
{ |
|
"epoch": 0.608, |
|
"grad_norm": 0.0807683989405632, |
|
"learning_rate": 0.00039870666666666667, |
|
"loss": 6.1554, |
|
"step": 7600 |
|
}, |
|
{ |
|
"epoch": 0.612, |
|
"grad_norm": 0.10026227682828903, |
|
"learning_rate": 0.00039804, |
|
"loss": 6.1316, |
|
"step": 7650 |
|
}, |
|
{ |
|
"epoch": 0.616, |
|
"grad_norm": 0.0905427560210228, |
|
"learning_rate": 0.00039737333333333334, |
|
"loss": 6.1192, |
|
"step": 7700 |
|
}, |
|
{ |
|
"epoch": 0.62, |
|
"grad_norm": 0.10912169516086578, |
|
"learning_rate": 0.0003967066666666667, |
|
"loss": 6.1349, |
|
"step": 7750 |
|
}, |
|
{ |
|
"epoch": 0.624, |
|
"grad_norm": 0.08967164158821106, |
|
"learning_rate": 0.00039604, |
|
"loss": 6.1535, |
|
"step": 7800 |
|
}, |
|
{ |
|
"epoch": 0.628, |
|
"grad_norm": 0.1440640389919281, |
|
"learning_rate": 0.00039537333333333334, |
|
"loss": 6.1407, |
|
"step": 7850 |
|
}, |
|
{ |
|
"epoch": 0.632, |
|
"grad_norm": 0.13149599730968475, |
|
"learning_rate": 0.0003947066666666667, |
|
"loss": 6.1468, |
|
"step": 7900 |
|
}, |
|
{ |
|
"epoch": 0.636, |
|
"grad_norm": 0.10279414802789688, |
|
"learning_rate": 0.00039404, |
|
"loss": 6.121, |
|
"step": 7950 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"grad_norm": 0.09198473393917084, |
|
"learning_rate": 0.00039337333333333335, |
|
"loss": 6.1377, |
|
"step": 8000 |
|
}, |
|
{ |
|
"epoch": 0.644, |
|
"grad_norm": 0.12933483719825745, |
|
"learning_rate": 0.00039270666666666663, |
|
"loss": 6.1464, |
|
"step": 8050 |
|
}, |
|
{ |
|
"epoch": 0.648, |
|
"grad_norm": 0.1936270296573639, |
|
"learning_rate": 0.00039204, |
|
"loss": 6.1166, |
|
"step": 8100 |
|
}, |
|
{ |
|
"epoch": 0.652, |
|
"grad_norm": 0.12195608764886856, |
|
"learning_rate": 0.00039137333333333336, |
|
"loss": 6.1174, |
|
"step": 8150 |
|
}, |
|
{ |
|
"epoch": 0.656, |
|
"grad_norm": 0.072402723133564, |
|
"learning_rate": 0.00039070666666666664, |
|
"loss": 6.1317, |
|
"step": 8200 |
|
}, |
|
{ |
|
"epoch": 0.66, |
|
"grad_norm": 0.09233975410461426, |
|
"learning_rate": 0.00039004, |
|
"loss": 6.1311, |
|
"step": 8250 |
|
}, |
|
{ |
|
"epoch": 0.664, |
|
"grad_norm": 0.11127981543540955, |
|
"learning_rate": 0.00038937333333333336, |
|
"loss": 6.1215, |
|
"step": 8300 |
|
}, |
|
{ |
|
"epoch": 0.668, |
|
"grad_norm": 0.10880014300346375, |
|
"learning_rate": 0.00038870666666666664, |
|
"loss": 6.114, |
|
"step": 8350 |
|
}, |
|
{ |
|
"epoch": 0.672, |
|
"grad_norm": 0.10606002807617188, |
|
"learning_rate": 0.00038804, |
|
"loss": 6.1291, |
|
"step": 8400 |
|
}, |
|
{ |
|
"epoch": 0.676, |
|
"grad_norm": 0.09350768476724625, |
|
"learning_rate": 0.00038737333333333337, |
|
"loss": 6.1069, |
|
"step": 8450 |
|
}, |
|
{ |
|
"epoch": 0.68, |
|
"grad_norm": 0.09924355149269104, |
|
"learning_rate": 0.00038670666666666665, |
|
"loss": 6.1029, |
|
"step": 8500 |
|
}, |
|
{ |
|
"epoch": 0.684, |
|
"grad_norm": 0.11456730961799622, |
|
"learning_rate": 0.00038604, |
|
"loss": 6.1537, |
|
"step": 8550 |
|
}, |
|
{ |
|
"epoch": 0.688, |
|
"grad_norm": 0.11353268474340439, |
|
"learning_rate": 0.00038537333333333337, |
|
"loss": 6.1215, |
|
"step": 8600 |
|
}, |
|
{ |
|
"epoch": 0.692, |
|
"grad_norm": 0.08415506780147552, |
|
"learning_rate": 0.00038470666666666665, |
|
"loss": 6.0972, |
|
"step": 8650 |
|
}, |
|
{ |
|
"epoch": 0.696, |
|
"grad_norm": 0.08291291445493698, |
|
"learning_rate": 0.00038404, |
|
"loss": 6.1049, |
|
"step": 8700 |
|
}, |
|
{ |
|
"epoch": 0.7, |
|
"grad_norm": 0.21915902197360992, |
|
"learning_rate": 0.0003833733333333334, |
|
"loss": 6.1197, |
|
"step": 8750 |
|
}, |
|
{ |
|
"epoch": 0.704, |
|
"grad_norm": 0.07533496618270874, |
|
"learning_rate": 0.00038270666666666666, |
|
"loss": 6.1298, |
|
"step": 8800 |
|
}, |
|
{ |
|
"epoch": 0.708, |
|
"grad_norm": 0.08725524693727493, |
|
"learning_rate": 0.00038204, |
|
"loss": 6.1249, |
|
"step": 8850 |
|
}, |
|
{ |
|
"epoch": 0.712, |
|
"grad_norm": 0.06773918867111206, |
|
"learning_rate": 0.00038137333333333333, |
|
"loss": 6.122, |
|
"step": 8900 |
|
}, |
|
{ |
|
"epoch": 0.716, |
|
"grad_norm": 0.10093361139297485, |
|
"learning_rate": 0.0003807066666666667, |
|
"loss": 6.1536, |
|
"step": 8950 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"grad_norm": 0.08091417700052261, |
|
"learning_rate": 0.00038004, |
|
"loss": 6.1269, |
|
"step": 9000 |
|
}, |
|
{ |
|
"epoch": 0.724, |
|
"grad_norm": 0.0783878043293953, |
|
"learning_rate": 0.00037937333333333334, |
|
"loss": 6.129, |
|
"step": 9050 |
|
}, |
|
{ |
|
"epoch": 0.728, |
|
"grad_norm": 0.11172500997781754, |
|
"learning_rate": 0.0003787066666666667, |
|
"loss": 6.1301, |
|
"step": 9100 |
|
}, |
|
{ |
|
"epoch": 0.732, |
|
"grad_norm": 0.10341805964708328, |
|
"learning_rate": 0.00037804, |
|
"loss": 6.1348, |
|
"step": 9150 |
|
}, |
|
{ |
|
"epoch": 0.736, |
|
"grad_norm": 0.07265458256006241, |
|
"learning_rate": 0.00037737333333333334, |
|
"loss": 6.0938, |
|
"step": 9200 |
|
}, |
|
{ |
|
"epoch": 0.74, |
|
"grad_norm": 0.24730075895786285, |
|
"learning_rate": 0.0003767066666666667, |
|
"loss": 6.14, |
|
"step": 9250 |
|
}, |
|
{ |
|
"epoch": 0.744, |
|
"grad_norm": 0.082618847489357, |
|
"learning_rate": 0.00037604, |
|
"loss": 6.1277, |
|
"step": 9300 |
|
}, |
|
{ |
|
"epoch": 0.748, |
|
"grad_norm": 0.08660747855901718, |
|
"learning_rate": 0.00037537333333333335, |
|
"loss": 6.1075, |
|
"step": 9350 |
|
}, |
|
{ |
|
"epoch": 0.752, |
|
"grad_norm": 0.08398722112178802, |
|
"learning_rate": 0.0003747066666666667, |
|
"loss": 6.1292, |
|
"step": 9400 |
|
}, |
|
{ |
|
"epoch": 0.756, |
|
"grad_norm": 0.08045294880867004, |
|
"learning_rate": 0.00037404, |
|
"loss": 6.1248, |
|
"step": 9450 |
|
}, |
|
{ |
|
"epoch": 0.76, |
|
"grad_norm": 0.07380557805299759, |
|
"learning_rate": 0.00037337333333333335, |
|
"loss": 6.1309, |
|
"step": 9500 |
|
}, |
|
{ |
|
"epoch": 0.764, |
|
"grad_norm": 0.09808892756700516, |
|
"learning_rate": 0.0003727066666666667, |
|
"loss": 6.1087, |
|
"step": 9550 |
|
}, |
|
{ |
|
"epoch": 0.768, |
|
"grad_norm": 0.1060815081000328, |
|
"learning_rate": 0.00037203999999999997, |
|
"loss": 6.078, |
|
"step": 9600 |
|
}, |
|
{ |
|
"epoch": 0.772, |
|
"grad_norm": 0.13874872028827667, |
|
"learning_rate": 0.00037137333333333336, |
|
"loss": 6.1412, |
|
"step": 9650 |
|
}, |
|
{ |
|
"epoch": 0.776, |
|
"grad_norm": 0.13686728477478027, |
|
"learning_rate": 0.0003707066666666667, |
|
"loss": 6.158, |
|
"step": 9700 |
|
}, |
|
{ |
|
"epoch": 0.78, |
|
"grad_norm": 0.07966756820678711, |
|
"learning_rate": 0.00037004, |
|
"loss": 6.1165, |
|
"step": 9750 |
|
}, |
|
{ |
|
"epoch": 0.784, |
|
"grad_norm": 0.10043661296367645, |
|
"learning_rate": 0.00036937333333333336, |
|
"loss": 6.1681, |
|
"step": 9800 |
|
}, |
|
{ |
|
"epoch": 0.788, |
|
"grad_norm": 0.08822102844715118, |
|
"learning_rate": 0.0003687066666666667, |
|
"loss": 6.1272, |
|
"step": 9850 |
|
}, |
|
{ |
|
"epoch": 0.792, |
|
"grad_norm": 0.10552317649126053, |
|
"learning_rate": 0.00036804, |
|
"loss": 6.1501, |
|
"step": 9900 |
|
}, |
|
{ |
|
"epoch": 0.796, |
|
"grad_norm": 0.08902155607938766, |
|
"learning_rate": 0.0003673733333333333, |
|
"loss": 6.1152, |
|
"step": 9950 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"grad_norm": 0.09760366380214691, |
|
"learning_rate": 0.0003667066666666667, |
|
"loss": 6.1029, |
|
"step": 10000 |
|
}, |
|
{ |
|
"epoch": 0.804, |
|
"grad_norm": 0.10177834331989288, |
|
"learning_rate": 0.00036604, |
|
"loss": 6.1354, |
|
"step": 10050 |
|
}, |
|
{ |
|
"epoch": 0.808, |
|
"grad_norm": 0.07950626313686371, |
|
"learning_rate": 0.0003653733333333333, |
|
"loss": 6.124, |
|
"step": 10100 |
|
}, |
|
{ |
|
"epoch": 0.812, |
|
"grad_norm": 0.1150452271103859, |
|
"learning_rate": 0.0003647066666666667, |
|
"loss": 6.0977, |
|
"step": 10150 |
|
}, |
|
{ |
|
"epoch": 0.816, |
|
"grad_norm": 0.07665413618087769, |
|
"learning_rate": 0.00036404, |
|
"loss": 6.124, |
|
"step": 10200 |
|
}, |
|
{ |
|
"epoch": 0.82, |
|
"grad_norm": 0.09552320092916489, |
|
"learning_rate": 0.0003633733333333333, |
|
"loss": 6.1103, |
|
"step": 10250 |
|
}, |
|
{ |
|
"epoch": 0.824, |
|
"grad_norm": 0.08140858262777328, |
|
"learning_rate": 0.00036270666666666666, |
|
"loss": 6.1353, |
|
"step": 10300 |
|
}, |
|
{ |
|
"epoch": 0.828, |
|
"grad_norm": 0.07286569476127625, |
|
"learning_rate": 0.00036204, |
|
"loss": 6.1046, |
|
"step": 10350 |
|
}, |
|
{ |
|
"epoch": 0.832, |
|
"grad_norm": 0.09404148906469345, |
|
"learning_rate": 0.00036137333333333333, |
|
"loss": 6.1502, |
|
"step": 10400 |
|
}, |
|
{ |
|
"epoch": 0.836, |
|
"grad_norm": 0.1536465734243393, |
|
"learning_rate": 0.00036070666666666667, |
|
"loss": 6.1156, |
|
"step": 10450 |
|
}, |
|
{ |
|
"epoch": 0.84, |
|
"grad_norm": 0.08193391561508179, |
|
"learning_rate": 0.00036004000000000006, |
|
"loss": 6.0812, |
|
"step": 10500 |
|
}, |
|
{ |
|
"epoch": 0.844, |
|
"grad_norm": 0.09778832644224167, |
|
"learning_rate": 0.00035937333333333334, |
|
"loss": 6.1574, |
|
"step": 10550 |
|
}, |
|
{ |
|
"epoch": 0.848, |
|
"grad_norm": 0.0808732733130455, |
|
"learning_rate": 0.00035870666666666667, |
|
"loss": 6.1508, |
|
"step": 10600 |
|
}, |
|
{ |
|
"epoch": 0.852, |
|
"grad_norm": 0.10465650260448456, |
|
"learning_rate": 0.00035804, |
|
"loss": 6.138, |
|
"step": 10650 |
|
}, |
|
{ |
|
"epoch": 0.856, |
|
"grad_norm": 0.1152452602982521, |
|
"learning_rate": 0.00035737333333333334, |
|
"loss": 6.1039, |
|
"step": 10700 |
|
}, |
|
{ |
|
"epoch": 0.86, |
|
"grad_norm": 0.08761215209960938, |
|
"learning_rate": 0.0003567066666666667, |
|
"loss": 6.1255, |
|
"step": 10750 |
|
}, |
|
{ |
|
"epoch": 0.864, |
|
"grad_norm": 0.13095897436141968, |
|
"learning_rate": 0.00035604, |
|
"loss": 6.1329, |
|
"step": 10800 |
|
}, |
|
{ |
|
"epoch": 0.868, |
|
"grad_norm": 0.07850901037454605, |
|
"learning_rate": 0.00035537333333333335, |
|
"loss": 6.1465, |
|
"step": 10850 |
|
}, |
|
{ |
|
"epoch": 0.872, |
|
"grad_norm": 0.14026562869548798, |
|
"learning_rate": 0.0003547066666666667, |
|
"loss": 6.1058, |
|
"step": 10900 |
|
}, |
|
{ |
|
"epoch": 0.876, |
|
"grad_norm": 0.10630867630243301, |
|
"learning_rate": 0.00035404, |
|
"loss": 6.1166, |
|
"step": 10950 |
|
}, |
|
{ |
|
"epoch": 0.88, |
|
"grad_norm": 0.09698736667633057, |
|
"learning_rate": 0.0003533733333333333, |
|
"loss": 6.0934, |
|
"step": 11000 |
|
}, |
|
{ |
|
"epoch": 0.884, |
|
"grad_norm": 0.1240108534693718, |
|
"learning_rate": 0.0003527066666666667, |
|
"loss": 6.1522, |
|
"step": 11050 |
|
}, |
|
{ |
|
"epoch": 0.888, |
|
"grad_norm": 0.07955353707075119, |
|
"learning_rate": 0.00035204, |
|
"loss": 6.1284, |
|
"step": 11100 |
|
}, |
|
{ |
|
"epoch": 0.892, |
|
"grad_norm": 0.1520235538482666, |
|
"learning_rate": 0.0003513733333333333, |
|
"loss": 6.1213, |
|
"step": 11150 |
|
}, |
|
{ |
|
"epoch": 0.896, |
|
"grad_norm": 0.08016408234834671, |
|
"learning_rate": 0.0003507066666666667, |
|
"loss": 6.134, |
|
"step": 11200 |
|
}, |
|
{ |
|
"epoch": 0.9, |
|
"grad_norm": 0.0748530924320221, |
|
"learning_rate": 0.00035004000000000003, |
|
"loss": 6.1199, |
|
"step": 11250 |
|
}, |
|
{ |
|
"epoch": 0.904, |
|
"grad_norm": 0.10358905792236328, |
|
"learning_rate": 0.0003493733333333333, |
|
"loss": 6.1186, |
|
"step": 11300 |
|
}, |
|
{ |
|
"epoch": 0.908, |
|
"grad_norm": 0.09325818717479706, |
|
"learning_rate": 0.00034870666666666665, |
|
"loss": 6.1274, |
|
"step": 11350 |
|
}, |
|
{ |
|
"epoch": 0.912, |
|
"grad_norm": 0.11673321574926376, |
|
"learning_rate": 0.00034804000000000004, |
|
"loss": 6.0994, |
|
"step": 11400 |
|
}, |
|
{ |
|
"epoch": 0.916, |
|
"grad_norm": 0.13746528327465057, |
|
"learning_rate": 0.0003473733333333333, |
|
"loss": 6.1325, |
|
"step": 11450 |
|
}, |
|
{ |
|
"epoch": 0.92, |
|
"grad_norm": 0.08190137892961502, |
|
"learning_rate": 0.00034670666666666665, |
|
"loss": 6.0904, |
|
"step": 11500 |
|
}, |
|
{ |
|
"epoch": 0.924, |
|
"grad_norm": 0.10086067765951157, |
|
"learning_rate": 0.00034604000000000004, |
|
"loss": 6.0952, |
|
"step": 11550 |
|
}, |
|
{ |
|
"epoch": 0.928, |
|
"grad_norm": 0.08541543781757355, |
|
"learning_rate": 0.0003453733333333333, |
|
"loss": 6.1243, |
|
"step": 11600 |
|
}, |
|
{ |
|
"epoch": 0.932, |
|
"grad_norm": 0.10419683903455734, |
|
"learning_rate": 0.00034470666666666666, |
|
"loss": 6.1248, |
|
"step": 11650 |
|
}, |
|
{ |
|
"epoch": 0.936, |
|
"grad_norm": 0.13085022568702698, |
|
"learning_rate": 0.00034404000000000005, |
|
"loss": 6.1513, |
|
"step": 11700 |
|
}, |
|
{ |
|
"epoch": 0.94, |
|
"grad_norm": 0.16075704991817474, |
|
"learning_rate": 0.00034337333333333333, |
|
"loss": 6.1126, |
|
"step": 11750 |
|
}, |
|
{ |
|
"epoch": 0.944, |
|
"grad_norm": 0.07062160223722458, |
|
"learning_rate": 0.00034270666666666666, |
|
"loss": 6.1384, |
|
"step": 11800 |
|
}, |
|
{ |
|
"epoch": 0.948, |
|
"grad_norm": 0.1087900772690773, |
|
"learning_rate": 0.00034204, |
|
"loss": 6.1453, |
|
"step": 11850 |
|
}, |
|
{ |
|
"epoch": 0.952, |
|
"grad_norm": 0.12088847905397415, |
|
"learning_rate": 0.00034137333333333333, |
|
"loss": 6.1176, |
|
"step": 11900 |
|
}, |
|
{ |
|
"epoch": 0.956, |
|
"grad_norm": 0.09018929302692413, |
|
"learning_rate": 0.00034070666666666667, |
|
"loss": 6.1061, |
|
"step": 11950 |
|
}, |
|
{ |
|
"epoch": 0.96, |
|
"grad_norm": 0.11129365116357803, |
|
"learning_rate": 0.00034004, |
|
"loss": 6.1346, |
|
"step": 12000 |
|
}, |
|
{ |
|
"epoch": 0.964, |
|
"grad_norm": 0.08379475772380829, |
|
"learning_rate": 0.0003393733333333334, |
|
"loss": 6.1428, |
|
"step": 12050 |
|
}, |
|
{ |
|
"epoch": 0.968, |
|
"grad_norm": 0.0782356783747673, |
|
"learning_rate": 0.0003387066666666667, |
|
"loss": 6.1157, |
|
"step": 12100 |
|
}, |
|
{ |
|
"epoch": 0.972, |
|
"grad_norm": 0.0803866982460022, |
|
"learning_rate": 0.00033804, |
|
"loss": 6.1237, |
|
"step": 12150 |
|
}, |
|
{ |
|
"epoch": 0.976, |
|
"grad_norm": 0.11563291400671005, |
|
"learning_rate": 0.00033737333333333334, |
|
"loss": 6.1114, |
|
"step": 12200 |
|
}, |
|
{ |
|
"epoch": 0.98, |
|
"grad_norm": 0.07396659255027771, |
|
"learning_rate": 0.0003367066666666667, |
|
"loss": 6.1143, |
|
"step": 12250 |
|
}, |
|
{ |
|
"epoch": 0.984, |
|
"grad_norm": 0.11586262285709381, |
|
"learning_rate": 0.00033604, |
|
"loss": 6.1005, |
|
"step": 12300 |
|
}, |
|
{ |
|
"epoch": 0.988, |
|
"grad_norm": 0.08802706748247147, |
|
"learning_rate": 0.00033537333333333335, |
|
"loss": 6.1088, |
|
"step": 12350 |
|
}, |
|
{ |
|
"epoch": 0.992, |
|
"grad_norm": 0.08128079771995544, |
|
"learning_rate": 0.0003347066666666667, |
|
"loss": 6.1312, |
|
"step": 12400 |
|
}, |
|
{ |
|
"epoch": 0.996, |
|
"grad_norm": 0.1308351308107376, |
|
"learning_rate": 0.00033404, |
|
"loss": 6.1144, |
|
"step": 12450 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"grad_norm": 0.10217352956533432, |
|
"learning_rate": 0.00033337333333333336, |
|
"loss": 6.1122, |
|
"step": 12500 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"eval_bleu": 0.8279835738309648, |
|
"eval_cer": 0.02236765542389765, |
|
"eval_f1": 0.9197910990022067, |
|
"eval_loss": 6.113585472106934, |
|
"eval_meteor": 0.9122098284199918, |
|
"eval_runtime": 543.3261, |
|
"eval_samples_per_second": 9.203, |
|
"eval_steps_per_second": 0.289, |
|
"eval_wer": 0.0959350975125687, |
|
"step": 12500 |
|
}, |
|
{ |
|
"epoch": 1.004, |
|
"grad_norm": 0.0861179381608963, |
|
"learning_rate": 0.00033270666666666664, |
|
"loss": 6.1131, |
|
"step": 12550 |
|
}, |
|
{ |
|
"epoch": 1.008, |
|
"grad_norm": 0.0688726082444191, |
|
"learning_rate": 0.00033204, |
|
"loss": 6.1351, |
|
"step": 12600 |
|
}, |
|
{ |
|
"epoch": 1.012, |
|
"grad_norm": 0.11097799241542816, |
|
"learning_rate": 0.00033137333333333336, |
|
"loss": 6.1194, |
|
"step": 12650 |
|
}, |
|
{ |
|
"epoch": 1.016, |
|
"grad_norm": 0.09242498874664307, |
|
"learning_rate": 0.00033070666666666664, |
|
"loss": 6.1172, |
|
"step": 12700 |
|
}, |
|
{ |
|
"epoch": 1.02, |
|
"grad_norm": 0.12328017503023148, |
|
"learning_rate": 0.00033004000000000003, |
|
"loss": 6.1182, |
|
"step": 12750 |
|
}, |
|
{ |
|
"epoch": 1.024, |
|
"grad_norm": 0.10099970549345016, |
|
"learning_rate": 0.00032937333333333337, |
|
"loss": 6.1123, |
|
"step": 12800 |
|
}, |
|
{ |
|
"epoch": 1.028, |
|
"grad_norm": 0.09246711432933807, |
|
"learning_rate": 0.00032870666666666665, |
|
"loss": 6.1154, |
|
"step": 12850 |
|
}, |
|
{ |
|
"epoch": 1.032, |
|
"grad_norm": 0.12997236847877502, |
|
"learning_rate": 0.00032804, |
|
"loss": 6.1282, |
|
"step": 12900 |
|
}, |
|
{ |
|
"epoch": 1.036, |
|
"grad_norm": 0.1214977279305458, |
|
"learning_rate": 0.00032737333333333337, |
|
"loss": 6.1199, |
|
"step": 12950 |
|
}, |
|
{ |
|
"epoch": 1.04, |
|
"grad_norm": 0.06522330641746521, |
|
"learning_rate": 0.00032670666666666665, |
|
"loss": 6.1181, |
|
"step": 13000 |
|
}, |
|
{ |
|
"epoch": 1.044, |
|
"grad_norm": 0.08439996093511581, |
|
"learning_rate": 0.00032604, |
|
"loss": 6.1361, |
|
"step": 13050 |
|
}, |
|
{ |
|
"epoch": 1.048, |
|
"grad_norm": 0.08747538924217224, |
|
"learning_rate": 0.0003253733333333334, |
|
"loss": 6.0998, |
|
"step": 13100 |
|
}, |
|
{ |
|
"epoch": 1.052, |
|
"grad_norm": 0.10568045824766159, |
|
"learning_rate": 0.00032470666666666666, |
|
"loss": 6.1435, |
|
"step": 13150 |
|
}, |
|
{ |
|
"epoch": 1.056, |
|
"grad_norm": 0.07755938172340393, |
|
"learning_rate": 0.00032404, |
|
"loss": 6.1502, |
|
"step": 13200 |
|
}, |
|
{ |
|
"epoch": 1.06, |
|
"grad_norm": 0.10120970755815506, |
|
"learning_rate": 0.00032337333333333333, |
|
"loss": 6.1202, |
|
"step": 13250 |
|
}, |
|
{ |
|
"epoch": 1.064, |
|
"grad_norm": 0.09305115044116974, |
|
"learning_rate": 0.00032270666666666666, |
|
"loss": 6.1171, |
|
"step": 13300 |
|
}, |
|
{ |
|
"epoch": 1.068, |
|
"grad_norm": 0.07767940312623978, |
|
"learning_rate": 0.00032204, |
|
"loss": 6.1412, |
|
"step": 13350 |
|
}, |
|
{ |
|
"epoch": 1.072, |
|
"grad_norm": 0.10225419700145721, |
|
"learning_rate": 0.00032137333333333334, |
|
"loss": 6.1194, |
|
"step": 13400 |
|
}, |
|
{ |
|
"epoch": 1.076, |
|
"grad_norm": 0.1065177395939827, |
|
"learning_rate": 0.00032070666666666667, |
|
"loss": 6.0955, |
|
"step": 13450 |
|
}, |
|
{ |
|
"epoch": 1.08, |
|
"grad_norm": 0.08519428223371506, |
|
"learning_rate": 0.00032004, |
|
"loss": 6.1035, |
|
"step": 13500 |
|
}, |
|
{ |
|
"epoch": 1.084, |
|
"grad_norm": 0.2798800468444824, |
|
"learning_rate": 0.00031937333333333334, |
|
"loss": 6.1076, |
|
"step": 13550 |
|
}, |
|
{ |
|
"epoch": 1.088, |
|
"grad_norm": 0.11202509701251984, |
|
"learning_rate": 0.0003187066666666667, |
|
"loss": 6.1507, |
|
"step": 13600 |
|
}, |
|
{ |
|
"epoch": 1.092, |
|
"grad_norm": 0.096127450466156, |
|
"learning_rate": 0.00031804, |
|
"loss": 6.1456, |
|
"step": 13650 |
|
}, |
|
{ |
|
"epoch": 1.096, |
|
"grad_norm": 0.07394638657569885, |
|
"learning_rate": 0.00031737333333333335, |
|
"loss": 6.105, |
|
"step": 13700 |
|
}, |
|
{ |
|
"epoch": 1.1, |
|
"grad_norm": 0.07544969767332077, |
|
"learning_rate": 0.0003167066666666667, |
|
"loss": 6.108, |
|
"step": 13750 |
|
}, |
|
{ |
|
"epoch": 1.104, |
|
"grad_norm": 0.08792877942323685, |
|
"learning_rate": 0.00031604, |
|
"loss": 6.107, |
|
"step": 13800 |
|
}, |
|
{ |
|
"epoch": 1.108, |
|
"grad_norm": 0.08102361857891083, |
|
"learning_rate": 0.00031537333333333335, |
|
"loss": 6.1179, |
|
"step": 13850 |
|
}, |
|
{ |
|
"epoch": 1.112, |
|
"grad_norm": 0.08879552781581879, |
|
"learning_rate": 0.0003147066666666667, |
|
"loss": 6.1269, |
|
"step": 13900 |
|
}, |
|
{ |
|
"epoch": 1.116, |
|
"grad_norm": 0.16624824702739716, |
|
"learning_rate": 0.00031403999999999997, |
|
"loss": 6.0827, |
|
"step": 13950 |
|
}, |
|
{ |
|
"epoch": 1.12, |
|
"grad_norm": 0.08469316363334656, |
|
"learning_rate": 0.00031337333333333336, |
|
"loss": 6.1301, |
|
"step": 14000 |
|
}, |
|
{ |
|
"epoch": 1.124, |
|
"grad_norm": 0.09172534197568893, |
|
"learning_rate": 0.0003127066666666667, |
|
"loss": 6.1212, |
|
"step": 14050 |
|
}, |
|
{ |
|
"epoch": 1.1280000000000001, |
|
"grad_norm": 0.0952141284942627, |
|
"learning_rate": 0.00031204, |
|
"loss": 6.1248, |
|
"step": 14100 |
|
}, |
|
{ |
|
"epoch": 1.1320000000000001, |
|
"grad_norm": 0.08985739946365356, |
|
"learning_rate": 0.00031137333333333336, |
|
"loss": 6.0861, |
|
"step": 14150 |
|
}, |
|
{ |
|
"epoch": 1.1360000000000001, |
|
"grad_norm": 0.11351034045219421, |
|
"learning_rate": 0.0003107066666666667, |
|
"loss": 6.0891, |
|
"step": 14200 |
|
}, |
|
{ |
|
"epoch": 1.1400000000000001, |
|
"grad_norm": 0.1227104663848877, |
|
"learning_rate": 0.00031004, |
|
"loss": 6.1198, |
|
"step": 14250 |
|
}, |
|
{ |
|
"epoch": 1.144, |
|
"grad_norm": 0.16891981661319733, |
|
"learning_rate": 0.0003093733333333333, |
|
"loss": 6.0885, |
|
"step": 14300 |
|
}, |
|
{ |
|
"epoch": 1.148, |
|
"grad_norm": 0.15705609321594238, |
|
"learning_rate": 0.0003087066666666667, |
|
"loss": 6.1292, |
|
"step": 14350 |
|
}, |
|
{ |
|
"epoch": 1.152, |
|
"grad_norm": 0.10989323258399963, |
|
"learning_rate": 0.00030804, |
|
"loss": 6.1377, |
|
"step": 14400 |
|
}, |
|
{ |
|
"epoch": 1.156, |
|
"grad_norm": 0.10995858907699585, |
|
"learning_rate": 0.0003073733333333333, |
|
"loss": 6.1005, |
|
"step": 14450 |
|
}, |
|
{ |
|
"epoch": 1.16, |
|
"grad_norm": 0.07753315567970276, |
|
"learning_rate": 0.0003067066666666667, |
|
"loss": 6.1229, |
|
"step": 14500 |
|
}, |
|
{ |
|
"epoch": 1.164, |
|
"grad_norm": 0.07363289594650269, |
|
"learning_rate": 0.00030604, |
|
"loss": 6.1294, |
|
"step": 14550 |
|
}, |
|
{ |
|
"epoch": 1.168, |
|
"grad_norm": 0.10041449218988419, |
|
"learning_rate": 0.0003053733333333333, |
|
"loss": 6.117, |
|
"step": 14600 |
|
}, |
|
{ |
|
"epoch": 1.172, |
|
"grad_norm": 0.11836455017328262, |
|
"learning_rate": 0.00030470666666666666, |
|
"loss": 6.0986, |
|
"step": 14650 |
|
}, |
|
{ |
|
"epoch": 1.176, |
|
"grad_norm": 0.07709010690450668, |
|
"learning_rate": 0.00030404, |
|
"loss": 6.1069, |
|
"step": 14700 |
|
}, |
|
{ |
|
"epoch": 1.18, |
|
"grad_norm": 0.07669167220592499, |
|
"learning_rate": 0.00030337333333333333, |
|
"loss": 6.1363, |
|
"step": 14750 |
|
}, |
|
{ |
|
"epoch": 1.184, |
|
"grad_norm": 0.0857149139046669, |
|
"learning_rate": 0.00030270666666666667, |
|
"loss": 6.0941, |
|
"step": 14800 |
|
}, |
|
{ |
|
"epoch": 1.188, |
|
"grad_norm": 0.15685345232486725, |
|
"learning_rate": 0.00030204, |
|
"loss": 6.1331, |
|
"step": 14850 |
|
}, |
|
{ |
|
"epoch": 1.192, |
|
"grad_norm": 0.0795324295759201, |
|
"learning_rate": 0.00030137333333333334, |
|
"loss": 6.151, |
|
"step": 14900 |
|
}, |
|
{ |
|
"epoch": 1.196, |
|
"grad_norm": 0.08726755529642105, |
|
"learning_rate": 0.00030070666666666667, |
|
"loss": 6.1404, |
|
"step": 14950 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"grad_norm": 0.12076140195131302, |
|
"learning_rate": 0.00030003999999999995, |
|
"loss": 6.1157, |
|
"step": 15000 |
|
}, |
|
{ |
|
"epoch": 1.204, |
|
"grad_norm": 0.09202925860881805, |
|
"learning_rate": 0.00029937333333333334, |
|
"loss": 6.1151, |
|
"step": 15050 |
|
}, |
|
{ |
|
"epoch": 1.208, |
|
"grad_norm": 0.15724903345108032, |
|
"learning_rate": 0.0002987066666666667, |
|
"loss": 6.0947, |
|
"step": 15100 |
|
}, |
|
{ |
|
"epoch": 1.212, |
|
"grad_norm": 0.2190481424331665, |
|
"learning_rate": 0.00029804, |
|
"loss": 6.1155, |
|
"step": 15150 |
|
}, |
|
{ |
|
"epoch": 1.216, |
|
"grad_norm": 0.1102723628282547, |
|
"learning_rate": 0.00029737333333333335, |
|
"loss": 6.105, |
|
"step": 15200 |
|
}, |
|
{ |
|
"epoch": 1.22, |
|
"grad_norm": 0.14476914703845978, |
|
"learning_rate": 0.0002967066666666667, |
|
"loss": 6.0985, |
|
"step": 15250 |
|
}, |
|
{ |
|
"epoch": 1.224, |
|
"grad_norm": 0.12951503694057465, |
|
"learning_rate": 0.00029604, |
|
"loss": 6.0897, |
|
"step": 15300 |
|
}, |
|
{ |
|
"epoch": 1.228, |
|
"grad_norm": 0.0677952691912651, |
|
"learning_rate": 0.00029537333333333335, |
|
"loss": 6.0982, |
|
"step": 15350 |
|
}, |
|
{ |
|
"epoch": 1.232, |
|
"grad_norm": 0.10330123454332352, |
|
"learning_rate": 0.0002947066666666667, |
|
"loss": 6.124, |
|
"step": 15400 |
|
}, |
|
{ |
|
"epoch": 1.236, |
|
"grad_norm": 0.09097038954496384, |
|
"learning_rate": 0.00029404, |
|
"loss": 6.0996, |
|
"step": 15450 |
|
}, |
|
{ |
|
"epoch": 1.24, |
|
"grad_norm": 0.07233336567878723, |
|
"learning_rate": 0.0002933733333333333, |
|
"loss": 6.1283, |
|
"step": 15500 |
|
}, |
|
{ |
|
"epoch": 1.244, |
|
"grad_norm": 0.06844240427017212, |
|
"learning_rate": 0.0002927066666666667, |
|
"loss": 6.1063, |
|
"step": 15550 |
|
}, |
|
{ |
|
"epoch": 1.248, |
|
"grad_norm": 0.08370081335306168, |
|
"learning_rate": 0.00029204000000000003, |
|
"loss": 6.1191, |
|
"step": 15600 |
|
}, |
|
{ |
|
"epoch": 1.252, |
|
"grad_norm": 0.08882440626621246, |
|
"learning_rate": 0.0002913733333333333, |
|
"loss": 6.132, |
|
"step": 15650 |
|
}, |
|
{ |
|
"epoch": 1.256, |
|
"grad_norm": 0.10374068468809128, |
|
"learning_rate": 0.0002907066666666667, |
|
"loss": 6.1202, |
|
"step": 15700 |
|
}, |
|
{ |
|
"epoch": 1.26, |
|
"grad_norm": 0.16756409406661987, |
|
"learning_rate": 0.00029004000000000004, |
|
"loss": 6.112, |
|
"step": 15750 |
|
}, |
|
{ |
|
"epoch": 1.264, |
|
"grad_norm": 0.09219000488519669, |
|
"learning_rate": 0.0002893733333333333, |
|
"loss": 6.1042, |
|
"step": 15800 |
|
}, |
|
{ |
|
"epoch": 1.268, |
|
"grad_norm": 0.16582448780536652, |
|
"learning_rate": 0.00028870666666666665, |
|
"loss": 6.0869, |
|
"step": 15850 |
|
}, |
|
{ |
|
"epoch": 1.272, |
|
"grad_norm": 0.1353410929441452, |
|
"learning_rate": 0.00028804000000000004, |
|
"loss": 6.1371, |
|
"step": 15900 |
|
}, |
|
{ |
|
"epoch": 1.276, |
|
"grad_norm": 0.09143903851509094, |
|
"learning_rate": 0.0002873733333333333, |
|
"loss": 6.0846, |
|
"step": 15950 |
|
}, |
|
{ |
|
"epoch": 1.28, |
|
"grad_norm": 0.09501923620700836, |
|
"learning_rate": 0.00028670666666666666, |
|
"loss": 6.1139, |
|
"step": 16000 |
|
}, |
|
{ |
|
"epoch": 1.284, |
|
"grad_norm": 0.11334563791751862, |
|
"learning_rate": 0.00028604000000000005, |
|
"loss": 6.1105, |
|
"step": 16050 |
|
}, |
|
{ |
|
"epoch": 1.288, |
|
"grad_norm": 0.10347284376621246, |
|
"learning_rate": 0.00028537333333333333, |
|
"loss": 6.0984, |
|
"step": 16100 |
|
}, |
|
{ |
|
"epoch": 1.292, |
|
"grad_norm": 0.06892314553260803, |
|
"learning_rate": 0.00028470666666666666, |
|
"loss": 6.1075, |
|
"step": 16150 |
|
}, |
|
{ |
|
"epoch": 1.296, |
|
"grad_norm": 0.10898636281490326, |
|
"learning_rate": 0.00028404, |
|
"loss": 6.116, |
|
"step": 16200 |
|
}, |
|
{ |
|
"epoch": 1.3, |
|
"grad_norm": 0.14483079314231873, |
|
"learning_rate": 0.00028337333333333333, |
|
"loss": 6.1354, |
|
"step": 16250 |
|
}, |
|
{ |
|
"epoch": 1.304, |
|
"grad_norm": 0.06266254931688309, |
|
"learning_rate": 0.00028270666666666667, |
|
"loss": 6.1469, |
|
"step": 16300 |
|
}, |
|
{ |
|
"epoch": 1.308, |
|
"grad_norm": 0.07579261809587479, |
|
"learning_rate": 0.00028204, |
|
"loss": 6.1553, |
|
"step": 16350 |
|
}, |
|
{ |
|
"epoch": 1.312, |
|
"grad_norm": 0.20213469862937927, |
|
"learning_rate": 0.00028137333333333334, |
|
"loss": 6.0922, |
|
"step": 16400 |
|
}, |
|
{ |
|
"epoch": 1.316, |
|
"grad_norm": 0.12880288064479828, |
|
"learning_rate": 0.0002807066666666667, |
|
"loss": 6.0965, |
|
"step": 16450 |
|
}, |
|
{ |
|
"epoch": 1.32, |
|
"grad_norm": 0.07941592484712601, |
|
"learning_rate": 0.00028004, |
|
"loss": 6.1343, |
|
"step": 16500 |
|
}, |
|
{ |
|
"epoch": 1.324, |
|
"grad_norm": 0.11309255659580231, |
|
"learning_rate": 0.0002793733333333333, |
|
"loss": 6.1135, |
|
"step": 16550 |
|
}, |
|
{ |
|
"epoch": 1.328, |
|
"grad_norm": 0.10817893594503403, |
|
"learning_rate": 0.0002787066666666667, |
|
"loss": 6.1201, |
|
"step": 16600 |
|
}, |
|
{ |
|
"epoch": 1.332, |
|
"grad_norm": 0.10941869765520096, |
|
"learning_rate": 0.00027804, |
|
"loss": 6.1118, |
|
"step": 16650 |
|
}, |
|
{ |
|
"epoch": 1.336, |
|
"grad_norm": 0.08172804862260818, |
|
"learning_rate": 0.00027737333333333335, |
|
"loss": 6.1337, |
|
"step": 16700 |
|
}, |
|
{ |
|
"epoch": 1.34, |
|
"grad_norm": 0.10233813524246216, |
|
"learning_rate": 0.0002767066666666667, |
|
"loss": 6.1144, |
|
"step": 16750 |
|
}, |
|
{ |
|
"epoch": 1.3439999999999999, |
|
"grad_norm": 0.09809960424900055, |
|
"learning_rate": 0.00027605333333333333, |
|
"loss": 6.0957, |
|
"step": 16800 |
|
}, |
|
{ |
|
"epoch": 1.3479999999999999, |
|
"grad_norm": 0.09125234931707382, |
|
"learning_rate": 0.00027538666666666666, |
|
"loss": 6.1286, |
|
"step": 16850 |
|
}, |
|
{ |
|
"epoch": 1.3519999999999999, |
|
"grad_norm": 0.06054741516709328, |
|
"learning_rate": 0.00027472, |
|
"loss": 6.1319, |
|
"step": 16900 |
|
}, |
|
{ |
|
"epoch": 1.3559999999999999, |
|
"grad_norm": 0.08779386430978775, |
|
"learning_rate": 0.00027405333333333333, |
|
"loss": 6.0779, |
|
"step": 16950 |
|
}, |
|
{ |
|
"epoch": 1.3599999999999999, |
|
"grad_norm": 0.1308376044034958, |
|
"learning_rate": 0.00027338666666666667, |
|
"loss": 6.1267, |
|
"step": 17000 |
|
}, |
|
{ |
|
"epoch": 1.3639999999999999, |
|
"grad_norm": 0.15217699110507965, |
|
"learning_rate": 0.00027272, |
|
"loss": 6.1647, |
|
"step": 17050 |
|
}, |
|
{ |
|
"epoch": 1.3679999999999999, |
|
"grad_norm": 0.16624772548675537, |
|
"learning_rate": 0.00027205333333333334, |
|
"loss": 6.1099, |
|
"step": 17100 |
|
}, |
|
{ |
|
"epoch": 1.3719999999999999, |
|
"grad_norm": 0.07217276841402054, |
|
"learning_rate": 0.0002714, |
|
"loss": 6.1113, |
|
"step": 17150 |
|
}, |
|
{ |
|
"epoch": 1.376, |
|
"grad_norm": 0.12601499259471893, |
|
"learning_rate": 0.0002707333333333333, |
|
"loss": 6.1229, |
|
"step": 17200 |
|
}, |
|
{ |
|
"epoch": 1.38, |
|
"grad_norm": 0.08183035999536514, |
|
"learning_rate": 0.0002700666666666667, |
|
"loss": 6.1077, |
|
"step": 17250 |
|
}, |
|
{ |
|
"epoch": 1.384, |
|
"grad_norm": 0.11476831138134003, |
|
"learning_rate": 0.0002694, |
|
"loss": 6.1341, |
|
"step": 17300 |
|
}, |
|
{ |
|
"epoch": 1.388, |
|
"grad_norm": 0.11496146023273468, |
|
"learning_rate": 0.0002687466666666667, |
|
"loss": 6.1305, |
|
"step": 17350 |
|
}, |
|
{ |
|
"epoch": 1.392, |
|
"grad_norm": 0.12232542037963867, |
|
"learning_rate": 0.00026807999999999997, |
|
"loss": 6.1365, |
|
"step": 17400 |
|
}, |
|
{ |
|
"epoch": 1.396, |
|
"grad_norm": 0.07186752557754517, |
|
"learning_rate": 0.00026741333333333336, |
|
"loss": 6.1237, |
|
"step": 17450 |
|
}, |
|
{ |
|
"epoch": 1.4, |
|
"grad_norm": 0.08478965610265732, |
|
"learning_rate": 0.0002667466666666667, |
|
"loss": 6.1134, |
|
"step": 17500 |
|
}, |
|
{ |
|
"epoch": 1.404, |
|
"grad_norm": 0.08441179990768433, |
|
"learning_rate": 0.00026608, |
|
"loss": 6.0988, |
|
"step": 17550 |
|
}, |
|
{ |
|
"epoch": 1.408, |
|
"grad_norm": 0.08826745301485062, |
|
"learning_rate": 0.00026541333333333336, |
|
"loss": 6.1233, |
|
"step": 17600 |
|
}, |
|
{ |
|
"epoch": 1.412, |
|
"grad_norm": 0.09119552373886108, |
|
"learning_rate": 0.0002647466666666667, |
|
"loss": 6.0893, |
|
"step": 17650 |
|
}, |
|
{ |
|
"epoch": 1.416, |
|
"grad_norm": 0.11442252993583679, |
|
"learning_rate": 0.00026408, |
|
"loss": 6.099, |
|
"step": 17700 |
|
}, |
|
{ |
|
"epoch": 1.42, |
|
"grad_norm": 0.07113688439130783, |
|
"learning_rate": 0.0002634133333333333, |
|
"loss": 6.126, |
|
"step": 17750 |
|
}, |
|
{ |
|
"epoch": 1.424, |
|
"grad_norm": 0.07983452081680298, |
|
"learning_rate": 0.0002627466666666667, |
|
"loss": 6.1273, |
|
"step": 17800 |
|
}, |
|
{ |
|
"epoch": 1.428, |
|
"grad_norm": 0.15537957847118378, |
|
"learning_rate": 0.00026208, |
|
"loss": 6.1147, |
|
"step": 17850 |
|
}, |
|
{ |
|
"epoch": 1.432, |
|
"grad_norm": 0.09716528654098511, |
|
"learning_rate": 0.0002614133333333333, |
|
"loss": 6.1387, |
|
"step": 17900 |
|
}, |
|
{ |
|
"epoch": 1.436, |
|
"grad_norm": 0.0967337116599083, |
|
"learning_rate": 0.0002607466666666667, |
|
"loss": 6.1196, |
|
"step": 17950 |
|
}, |
|
{ |
|
"epoch": 1.44, |
|
"grad_norm": 0.06788675487041473, |
|
"learning_rate": 0.00026008, |
|
"loss": 6.1016, |
|
"step": 18000 |
|
}, |
|
{ |
|
"epoch": 1.444, |
|
"grad_norm": 0.12375286966562271, |
|
"learning_rate": 0.0002594133333333333, |
|
"loss": 6.1171, |
|
"step": 18050 |
|
}, |
|
{ |
|
"epoch": 1.448, |
|
"grad_norm": 0.10327104479074478, |
|
"learning_rate": 0.00025874666666666666, |
|
"loss": 6.0926, |
|
"step": 18100 |
|
}, |
|
{ |
|
"epoch": 1.452, |
|
"grad_norm": 0.11715775728225708, |
|
"learning_rate": 0.00025808, |
|
"loss": 6.1078, |
|
"step": 18150 |
|
}, |
|
{ |
|
"epoch": 1.456, |
|
"grad_norm": 0.08773989975452423, |
|
"learning_rate": 0.00025741333333333333, |
|
"loss": 6.1436, |
|
"step": 18200 |
|
}, |
|
{ |
|
"epoch": 1.46, |
|
"grad_norm": 0.06660512089729309, |
|
"learning_rate": 0.00025674666666666667, |
|
"loss": 6.1072, |
|
"step": 18250 |
|
}, |
|
{ |
|
"epoch": 1.464, |
|
"grad_norm": 0.09394600987434387, |
|
"learning_rate": 0.00025608, |
|
"loss": 6.1063, |
|
"step": 18300 |
|
}, |
|
{ |
|
"epoch": 1.468, |
|
"grad_norm": 0.08087374269962311, |
|
"learning_rate": 0.00025541333333333334, |
|
"loss": 6.1146, |
|
"step": 18350 |
|
}, |
|
{ |
|
"epoch": 1.472, |
|
"grad_norm": 0.07448236644268036, |
|
"learning_rate": 0.00025474666666666667, |
|
"loss": 6.1231, |
|
"step": 18400 |
|
}, |
|
{ |
|
"epoch": 1.476, |
|
"grad_norm": 0.11649112403392792, |
|
"learning_rate": 0.00025407999999999995, |
|
"loss": 6.1314, |
|
"step": 18450 |
|
}, |
|
{ |
|
"epoch": 1.48, |
|
"grad_norm": 0.09097320586442947, |
|
"learning_rate": 0.00025341333333333334, |
|
"loss": 6.0926, |
|
"step": 18500 |
|
}, |
|
{ |
|
"epoch": 1.484, |
|
"grad_norm": 0.10024212300777435, |
|
"learning_rate": 0.0002527466666666667, |
|
"loss": 6.1371, |
|
"step": 18550 |
|
}, |
|
{ |
|
"epoch": 1.488, |
|
"grad_norm": 0.10840707272291183, |
|
"learning_rate": 0.00025208, |
|
"loss": 6.1335, |
|
"step": 18600 |
|
}, |
|
{ |
|
"epoch": 1.492, |
|
"grad_norm": 0.06351447850465775, |
|
"learning_rate": 0.00025141333333333335, |
|
"loss": 6.1043, |
|
"step": 18650 |
|
}, |
|
{ |
|
"epoch": 1.496, |
|
"grad_norm": 0.07490910589694977, |
|
"learning_rate": 0.0002507466666666667, |
|
"loss": 6.1411, |
|
"step": 18700 |
|
}, |
|
{ |
|
"epoch": 1.5, |
|
"grad_norm": 0.07051810622215271, |
|
"learning_rate": 0.00025008, |
|
"loss": 6.122, |
|
"step": 18750 |
|
}, |
|
{ |
|
"epoch": 1.504, |
|
"grad_norm": 0.13844069838523865, |
|
"learning_rate": 0.0002494133333333333, |
|
"loss": 6.1234, |
|
"step": 18800 |
|
}, |
|
{ |
|
"epoch": 1.508, |
|
"grad_norm": 0.0931655541062355, |
|
"learning_rate": 0.0002487466666666667, |
|
"loss": 6.1326, |
|
"step": 18850 |
|
}, |
|
{ |
|
"epoch": 1.512, |
|
"grad_norm": 0.11132197082042694, |
|
"learning_rate": 0.00024808, |
|
"loss": 6.1173, |
|
"step": 18900 |
|
}, |
|
{ |
|
"epoch": 1.516, |
|
"grad_norm": 0.1060265600681305, |
|
"learning_rate": 0.00024741333333333336, |
|
"loss": 6.1007, |
|
"step": 18950 |
|
}, |
|
{ |
|
"epoch": 1.52, |
|
"grad_norm": 0.08661402016878128, |
|
"learning_rate": 0.0002467466666666667, |
|
"loss": 6.1127, |
|
"step": 19000 |
|
}, |
|
{ |
|
"epoch": 1.524, |
|
"grad_norm": 0.1349734365940094, |
|
"learning_rate": 0.00024608, |
|
"loss": 6.1084, |
|
"step": 19050 |
|
}, |
|
{ |
|
"epoch": 1.528, |
|
"grad_norm": 0.08636411279439926, |
|
"learning_rate": 0.00024541333333333336, |
|
"loss": 6.1309, |
|
"step": 19100 |
|
}, |
|
{ |
|
"epoch": 1.532, |
|
"grad_norm": 0.07895854860544205, |
|
"learning_rate": 0.0002447466666666667, |
|
"loss": 6.1179, |
|
"step": 19150 |
|
}, |
|
{ |
|
"epoch": 1.536, |
|
"grad_norm": 0.0750681683421135, |
|
"learning_rate": 0.00024408, |
|
"loss": 6.1171, |
|
"step": 19200 |
|
}, |
|
{ |
|
"epoch": 1.54, |
|
"grad_norm": 0.09081646800041199, |
|
"learning_rate": 0.00024341333333333334, |
|
"loss": 6.1236, |
|
"step": 19250 |
|
}, |
|
{ |
|
"epoch": 1.544, |
|
"grad_norm": 0.18204033374786377, |
|
"learning_rate": 0.00024274666666666668, |
|
"loss": 6.0864, |
|
"step": 19300 |
|
}, |
|
{ |
|
"epoch": 1.548, |
|
"grad_norm": 0.07506382465362549, |
|
"learning_rate": 0.00024207999999999999, |
|
"loss": 6.1068, |
|
"step": 19350 |
|
}, |
|
{ |
|
"epoch": 1.552, |
|
"grad_norm": 0.07843635976314545, |
|
"learning_rate": 0.00024141333333333335, |
|
"loss": 6.1142, |
|
"step": 19400 |
|
}, |
|
{ |
|
"epoch": 1.556, |
|
"grad_norm": 0.06401607394218445, |
|
"learning_rate": 0.00024074666666666666, |
|
"loss": 6.1283, |
|
"step": 19450 |
|
}, |
|
{ |
|
"epoch": 1.56, |
|
"grad_norm": 0.09213093668222427, |
|
"learning_rate": 0.00024008, |
|
"loss": 6.1027, |
|
"step": 19500 |
|
}, |
|
{ |
|
"epoch": 1.564, |
|
"grad_norm": 0.08796865493059158, |
|
"learning_rate": 0.00023941333333333335, |
|
"loss": 6.0979, |
|
"step": 19550 |
|
}, |
|
{ |
|
"epoch": 1.568, |
|
"grad_norm": 0.09114944189786911, |
|
"learning_rate": 0.00023874666666666666, |
|
"loss": 6.138, |
|
"step": 19600 |
|
}, |
|
{ |
|
"epoch": 1.572, |
|
"grad_norm": 0.08979613333940506, |
|
"learning_rate": 0.00023808000000000002, |
|
"loss": 6.0814, |
|
"step": 19650 |
|
}, |
|
{ |
|
"epoch": 1.576, |
|
"grad_norm": 0.07273554801940918, |
|
"learning_rate": 0.00023741333333333333, |
|
"loss": 6.1172, |
|
"step": 19700 |
|
}, |
|
{ |
|
"epoch": 1.58, |
|
"grad_norm": 0.07082478702068329, |
|
"learning_rate": 0.00023674666666666667, |
|
"loss": 6.1387, |
|
"step": 19750 |
|
}, |
|
{ |
|
"epoch": 1.584, |
|
"grad_norm": 0.08334632217884064, |
|
"learning_rate": 0.00023608000000000003, |
|
"loss": 6.0961, |
|
"step": 19800 |
|
}, |
|
{ |
|
"epoch": 1.588, |
|
"grad_norm": 0.07482119649648666, |
|
"learning_rate": 0.00023541333333333334, |
|
"loss": 6.1029, |
|
"step": 19850 |
|
}, |
|
{ |
|
"epoch": 1.592, |
|
"grad_norm": 0.07358872145414352, |
|
"learning_rate": 0.00023474666666666667, |
|
"loss": 6.1012, |
|
"step": 19900 |
|
}, |
|
{ |
|
"epoch": 1.596, |
|
"grad_norm": 0.07386735826730728, |
|
"learning_rate": 0.00023409333333333332, |
|
"loss": 6.0901, |
|
"step": 19950 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"grad_norm": 0.13007903099060059, |
|
"learning_rate": 0.00023342666666666668, |
|
"loss": 6.104, |
|
"step": 20000 |
|
}, |
|
{ |
|
"epoch": 1.604, |
|
"grad_norm": 0.08530468493700027, |
|
"learning_rate": 0.00023276, |
|
"loss": 6.1154, |
|
"step": 20050 |
|
}, |
|
{ |
|
"epoch": 1.608, |
|
"grad_norm": 0.08897891640663147, |
|
"learning_rate": 0.00023209333333333335, |
|
"loss": 6.1191, |
|
"step": 20100 |
|
}, |
|
{ |
|
"epoch": 1.612, |
|
"grad_norm": 0.1343642622232437, |
|
"learning_rate": 0.00023142666666666668, |
|
"loss": 6.1001, |
|
"step": 20150 |
|
}, |
|
{ |
|
"epoch": 1.616, |
|
"grad_norm": 0.06264558434486389, |
|
"learning_rate": 0.00023076, |
|
"loss": 6.099, |
|
"step": 20200 |
|
}, |
|
{ |
|
"epoch": 1.62, |
|
"grad_norm": 0.08154334872961044, |
|
"learning_rate": 0.00023009333333333336, |
|
"loss": 6.1108, |
|
"step": 20250 |
|
}, |
|
{ |
|
"epoch": 1.624, |
|
"grad_norm": 0.09159765392541885, |
|
"learning_rate": 0.00022942666666666666, |
|
"loss": 6.1201, |
|
"step": 20300 |
|
}, |
|
{ |
|
"epoch": 1.6280000000000001, |
|
"grad_norm": 0.15310992300510406, |
|
"learning_rate": 0.00022876, |
|
"loss": 6.1137, |
|
"step": 20350 |
|
}, |
|
{ |
|
"epoch": 1.6320000000000001, |
|
"grad_norm": 0.0851309671998024, |
|
"learning_rate": 0.00022809333333333333, |
|
"loss": 6.1419, |
|
"step": 20400 |
|
}, |
|
{ |
|
"epoch": 1.6360000000000001, |
|
"grad_norm": 0.106353759765625, |
|
"learning_rate": 0.00022742666666666667, |
|
"loss": 6.1541, |
|
"step": 20450 |
|
}, |
|
{ |
|
"epoch": 1.6400000000000001, |
|
"grad_norm": 0.11484626680612564, |
|
"learning_rate": 0.00022676, |
|
"loss": 6.0946, |
|
"step": 20500 |
|
}, |
|
{ |
|
"epoch": 1.6440000000000001, |
|
"grad_norm": 0.08954672515392303, |
|
"learning_rate": 0.00022609333333333334, |
|
"loss": 6.1259, |
|
"step": 20550 |
|
}, |
|
{ |
|
"epoch": 1.6480000000000001, |
|
"grad_norm": 0.1446329951286316, |
|
"learning_rate": 0.00022542666666666667, |
|
"loss": 6.1103, |
|
"step": 20600 |
|
}, |
|
{ |
|
"epoch": 1.6520000000000001, |
|
"grad_norm": 0.07288994640111923, |
|
"learning_rate": 0.00022475999999999998, |
|
"loss": 6.1047, |
|
"step": 20650 |
|
}, |
|
{ |
|
"epoch": 1.6560000000000001, |
|
"grad_norm": 0.10654041916131973, |
|
"learning_rate": 0.00022409333333333334, |
|
"loss": 6.1179, |
|
"step": 20700 |
|
}, |
|
{ |
|
"epoch": 1.6600000000000001, |
|
"grad_norm": 0.13310889899730682, |
|
"learning_rate": 0.00022342666666666668, |
|
"loss": 6.1124, |
|
"step": 20750 |
|
}, |
|
{ |
|
"epoch": 1.6640000000000001, |
|
"grad_norm": 0.23402610421180725, |
|
"learning_rate": 0.00022276000000000002, |
|
"loss": 6.0735, |
|
"step": 20800 |
|
}, |
|
{ |
|
"epoch": 1.6680000000000001, |
|
"grad_norm": 0.10412658751010895, |
|
"learning_rate": 0.00022209333333333335, |
|
"loss": 6.0957, |
|
"step": 20850 |
|
}, |
|
{ |
|
"epoch": 1.6720000000000002, |
|
"grad_norm": 0.08423358201980591, |
|
"learning_rate": 0.00022142666666666666, |
|
"loss": 6.1076, |
|
"step": 20900 |
|
}, |
|
{ |
|
"epoch": 1.6760000000000002, |
|
"grad_norm": 0.08156075328588486, |
|
"learning_rate": 0.00022076000000000002, |
|
"loss": 6.1232, |
|
"step": 20950 |
|
}, |
|
{ |
|
"epoch": 1.6800000000000002, |
|
"grad_norm": 0.11129004508256912, |
|
"learning_rate": 0.00022009333333333333, |
|
"loss": 6.0934, |
|
"step": 21000 |
|
}, |
|
{ |
|
"epoch": 1.6840000000000002, |
|
"grad_norm": 0.0976298451423645, |
|
"learning_rate": 0.00021942666666666666, |
|
"loss": 6.1131, |
|
"step": 21050 |
|
}, |
|
{ |
|
"epoch": 1.688, |
|
"grad_norm": 0.11792987585067749, |
|
"learning_rate": 0.00021876000000000003, |
|
"loss": 6.1201, |
|
"step": 21100 |
|
}, |
|
{ |
|
"epoch": 1.692, |
|
"grad_norm": 0.07454186677932739, |
|
"learning_rate": 0.00021809333333333333, |
|
"loss": 6.1047, |
|
"step": 21150 |
|
}, |
|
{ |
|
"epoch": 1.696, |
|
"grad_norm": 0.11691248416900635, |
|
"learning_rate": 0.00021742666666666667, |
|
"loss": 6.106, |
|
"step": 21200 |
|
}, |
|
{ |
|
"epoch": 1.7, |
|
"grad_norm": 0.09039883315563202, |
|
"learning_rate": 0.00021676, |
|
"loss": 6.1257, |
|
"step": 21250 |
|
}, |
|
{ |
|
"epoch": 1.704, |
|
"grad_norm": 0.07885195314884186, |
|
"learning_rate": 0.00021609333333333334, |
|
"loss": 6.1147, |
|
"step": 21300 |
|
}, |
|
{ |
|
"epoch": 1.708, |
|
"grad_norm": 0.09826157987117767, |
|
"learning_rate": 0.00021542666666666665, |
|
"loss": 6.1304, |
|
"step": 21350 |
|
}, |
|
{ |
|
"epoch": 1.712, |
|
"grad_norm": 0.09847967326641083, |
|
"learning_rate": 0.00021476, |
|
"loss": 6.1143, |
|
"step": 21400 |
|
}, |
|
{ |
|
"epoch": 1.716, |
|
"grad_norm": 0.08521867543458939, |
|
"learning_rate": 0.00021409333333333335, |
|
"loss": 6.1301, |
|
"step": 21450 |
|
}, |
|
{ |
|
"epoch": 1.72, |
|
"grad_norm": 0.09954076260328293, |
|
"learning_rate": 0.00021342666666666665, |
|
"loss": 6.1115, |
|
"step": 21500 |
|
}, |
|
{ |
|
"epoch": 1.724, |
|
"grad_norm": 0.08671393245458603, |
|
"learning_rate": 0.00021276000000000002, |
|
"loss": 6.0971, |
|
"step": 21550 |
|
}, |
|
{ |
|
"epoch": 1.728, |
|
"grad_norm": 0.1014779657125473, |
|
"learning_rate": 0.00021209333333333332, |
|
"loss": 6.1139, |
|
"step": 21600 |
|
}, |
|
{ |
|
"epoch": 1.732, |
|
"grad_norm": 0.08204270899295807, |
|
"learning_rate": 0.0002114266666666667, |
|
"loss": 6.1117, |
|
"step": 21650 |
|
}, |
|
{ |
|
"epoch": 1.736, |
|
"grad_norm": 0.22136829793453217, |
|
"learning_rate": 0.00021076, |
|
"loss": 6.1195, |
|
"step": 21700 |
|
}, |
|
{ |
|
"epoch": 1.74, |
|
"grad_norm": 0.07619840651750565, |
|
"learning_rate": 0.00021009333333333333, |
|
"loss": 6.1507, |
|
"step": 21750 |
|
}, |
|
{ |
|
"epoch": 1.744, |
|
"grad_norm": 0.11760496348142624, |
|
"learning_rate": 0.0002094266666666667, |
|
"loss": 6.1058, |
|
"step": 21800 |
|
}, |
|
{ |
|
"epoch": 1.748, |
|
"grad_norm": 0.07619129121303558, |
|
"learning_rate": 0.00020876, |
|
"loss": 6.0987, |
|
"step": 21850 |
|
}, |
|
{ |
|
"epoch": 1.752, |
|
"grad_norm": 0.0647655725479126, |
|
"learning_rate": 0.00020809333333333334, |
|
"loss": 6.092, |
|
"step": 21900 |
|
}, |
|
{ |
|
"epoch": 1.756, |
|
"grad_norm": 0.08736995607614517, |
|
"learning_rate": 0.00020742666666666667, |
|
"loss": 6.1177, |
|
"step": 21950 |
|
}, |
|
{ |
|
"epoch": 1.76, |
|
"grad_norm": 0.08582036942243576, |
|
"learning_rate": 0.00020676, |
|
"loss": 6.1234, |
|
"step": 22000 |
|
}, |
|
{ |
|
"epoch": 1.764, |
|
"grad_norm": 0.13605540990829468, |
|
"learning_rate": 0.00020609333333333331, |
|
"loss": 6.0803, |
|
"step": 22050 |
|
}, |
|
{ |
|
"epoch": 1.768, |
|
"grad_norm": 0.06180649623274803, |
|
"learning_rate": 0.00020542666666666668, |
|
"loss": 6.1104, |
|
"step": 22100 |
|
}, |
|
{ |
|
"epoch": 1.772, |
|
"grad_norm": 0.10418678820133209, |
|
"learning_rate": 0.00020476, |
|
"loss": 6.1106, |
|
"step": 22150 |
|
}, |
|
{ |
|
"epoch": 1.776, |
|
"grad_norm": 0.07229094952344894, |
|
"learning_rate": 0.00020409333333333332, |
|
"loss": 6.1261, |
|
"step": 22200 |
|
}, |
|
{ |
|
"epoch": 1.78, |
|
"grad_norm": 0.1139087826013565, |
|
"learning_rate": 0.00020342666666666668, |
|
"loss": 6.1169, |
|
"step": 22250 |
|
}, |
|
{ |
|
"epoch": 1.784, |
|
"grad_norm": 0.10123308002948761, |
|
"learning_rate": 0.00020276, |
|
"loss": 6.1222, |
|
"step": 22300 |
|
}, |
|
{ |
|
"epoch": 1.788, |
|
"grad_norm": 0.1004975289106369, |
|
"learning_rate": 0.00020209333333333335, |
|
"loss": 6.1128, |
|
"step": 22350 |
|
}, |
|
{ |
|
"epoch": 1.792, |
|
"grad_norm": 0.10379572957754135, |
|
"learning_rate": 0.0002014266666666667, |
|
"loss": 6.1539, |
|
"step": 22400 |
|
}, |
|
{ |
|
"epoch": 1.796, |
|
"grad_norm": 0.0890529528260231, |
|
"learning_rate": 0.00020076, |
|
"loss": 6.1674, |
|
"step": 22450 |
|
}, |
|
{ |
|
"epoch": 1.8, |
|
"grad_norm": 0.0714147537946701, |
|
"learning_rate": 0.00020009333333333336, |
|
"loss": 6.1368, |
|
"step": 22500 |
|
}, |
|
{ |
|
"epoch": 1.804, |
|
"grad_norm": 0.10294345021247864, |
|
"learning_rate": 0.00019942666666666667, |
|
"loss": 6.1165, |
|
"step": 22550 |
|
}, |
|
{ |
|
"epoch": 1.808, |
|
"grad_norm": 0.11307172477245331, |
|
"learning_rate": 0.00019876, |
|
"loss": 6.1067, |
|
"step": 22600 |
|
}, |
|
{ |
|
"epoch": 1.812, |
|
"grad_norm": 0.13027998805046082, |
|
"learning_rate": 0.00019809333333333334, |
|
"loss": 6.1056, |
|
"step": 22650 |
|
}, |
|
{ |
|
"epoch": 1.8159999999999998, |
|
"grad_norm": 0.1588941216468811, |
|
"learning_rate": 0.00019742666666666667, |
|
"loss": 6.1145, |
|
"step": 22700 |
|
}, |
|
{ |
|
"epoch": 1.8199999999999998, |
|
"grad_norm": 0.11516508460044861, |
|
"learning_rate": 0.00019676, |
|
"loss": 6.1116, |
|
"step": 22750 |
|
}, |
|
{ |
|
"epoch": 1.8239999999999998, |
|
"grad_norm": 0.1342688798904419, |
|
"learning_rate": 0.00019609333333333334, |
|
"loss": 6.1153, |
|
"step": 22800 |
|
}, |
|
{ |
|
"epoch": 1.8279999999999998, |
|
"grad_norm": 0.11169470846652985, |
|
"learning_rate": 0.00019542666666666668, |
|
"loss": 6.1239, |
|
"step": 22850 |
|
}, |
|
{ |
|
"epoch": 1.8319999999999999, |
|
"grad_norm": 0.09265588223934174, |
|
"learning_rate": 0.00019475999999999999, |
|
"loss": 6.1278, |
|
"step": 22900 |
|
}, |
|
{ |
|
"epoch": 1.8359999999999999, |
|
"grad_norm": 0.11520793288946152, |
|
"learning_rate": 0.00019409333333333335, |
|
"loss": 6.1102, |
|
"step": 22950 |
|
}, |
|
{ |
|
"epoch": 1.8399999999999999, |
|
"grad_norm": 0.1018354743719101, |
|
"learning_rate": 0.00019342666666666666, |
|
"loss": 6.1147, |
|
"step": 23000 |
|
}, |
|
{ |
|
"epoch": 1.8439999999999999, |
|
"grad_norm": 0.09578350186347961, |
|
"learning_rate": 0.00019276, |
|
"loss": 6.1157, |
|
"step": 23050 |
|
}, |
|
{ |
|
"epoch": 1.8479999999999999, |
|
"grad_norm": 0.06277944147586823, |
|
"learning_rate": 0.00019209333333333335, |
|
"loss": 6.1088, |
|
"step": 23100 |
|
}, |
|
{ |
|
"epoch": 1.8519999999999999, |
|
"grad_norm": 0.14111344516277313, |
|
"learning_rate": 0.00019142666666666666, |
|
"loss": 6.1426, |
|
"step": 23150 |
|
}, |
|
{ |
|
"epoch": 1.8559999999999999, |
|
"grad_norm": 0.07588493078947067, |
|
"learning_rate": 0.00019076000000000002, |
|
"loss": 6.1374, |
|
"step": 23200 |
|
}, |
|
{ |
|
"epoch": 1.8599999999999999, |
|
"grad_norm": 0.1208319365978241, |
|
"learning_rate": 0.00019009333333333333, |
|
"loss": 6.1122, |
|
"step": 23250 |
|
}, |
|
{ |
|
"epoch": 1.8639999999999999, |
|
"grad_norm": 0.0716400146484375, |
|
"learning_rate": 0.00018942666666666667, |
|
"loss": 6.0836, |
|
"step": 23300 |
|
}, |
|
{ |
|
"epoch": 1.8679999999999999, |
|
"grad_norm": 0.15237785875797272, |
|
"learning_rate": 0.00018876, |
|
"loss": 6.081, |
|
"step": 23350 |
|
}, |
|
{ |
|
"epoch": 1.8719999999999999, |
|
"grad_norm": 0.08331475406885147, |
|
"learning_rate": 0.00018809333333333334, |
|
"loss": 6.1036, |
|
"step": 23400 |
|
}, |
|
{ |
|
"epoch": 1.876, |
|
"grad_norm": 0.13566309213638306, |
|
"learning_rate": 0.00018742666666666667, |
|
"loss": 6.0979, |
|
"step": 23450 |
|
}, |
|
{ |
|
"epoch": 1.88, |
|
"grad_norm": 0.08275385946035385, |
|
"learning_rate": 0.00018676, |
|
"loss": 6.0965, |
|
"step": 23500 |
|
}, |
|
{ |
|
"epoch": 1.884, |
|
"grad_norm": 0.10138291120529175, |
|
"learning_rate": 0.00018609333333333334, |
|
"loss": 6.1155, |
|
"step": 23550 |
|
}, |
|
{ |
|
"epoch": 1.888, |
|
"grad_norm": 0.09643717855215073, |
|
"learning_rate": 0.00018542666666666665, |
|
"loss": 6.087, |
|
"step": 23600 |
|
}, |
|
{ |
|
"epoch": 1.892, |
|
"grad_norm": 0.07002636045217514, |
|
"learning_rate": 0.00018476, |
|
"loss": 6.1147, |
|
"step": 23650 |
|
}, |
|
{ |
|
"epoch": 1.896, |
|
"grad_norm": 0.08171535283327103, |
|
"learning_rate": 0.00018409333333333335, |
|
"loss": 6.1291, |
|
"step": 23700 |
|
}, |
|
{ |
|
"epoch": 1.9, |
|
"grad_norm": 0.08452154695987701, |
|
"learning_rate": 0.00018342666666666666, |
|
"loss": 6.099, |
|
"step": 23750 |
|
}, |
|
{ |
|
"epoch": 1.904, |
|
"grad_norm": 0.06860998272895813, |
|
"learning_rate": 0.00018276000000000002, |
|
"loss": 6.106, |
|
"step": 23800 |
|
}, |
|
{ |
|
"epoch": 1.908, |
|
"grad_norm": 0.13700862228870392, |
|
"learning_rate": 0.00018209333333333333, |
|
"loss": 6.0841, |
|
"step": 23850 |
|
}, |
|
{ |
|
"epoch": 1.912, |
|
"grad_norm": 0.08697017282247543, |
|
"learning_rate": 0.0001814266666666667, |
|
"loss": 6.1194, |
|
"step": 23900 |
|
}, |
|
{ |
|
"epoch": 1.916, |
|
"grad_norm": 0.08374960720539093, |
|
"learning_rate": 0.00018077333333333333, |
|
"loss": 6.1426, |
|
"step": 23950 |
|
}, |
|
{ |
|
"epoch": 1.92, |
|
"grad_norm": 0.14394758641719818, |
|
"learning_rate": 0.00018010666666666667, |
|
"loss": 6.1041, |
|
"step": 24000 |
|
}, |
|
{ |
|
"epoch": 1.924, |
|
"grad_norm": 0.06964962929487228, |
|
"learning_rate": 0.00017944, |
|
"loss": 6.0998, |
|
"step": 24050 |
|
}, |
|
{ |
|
"epoch": 1.928, |
|
"grad_norm": 0.11264392733573914, |
|
"learning_rate": 0.00017877333333333334, |
|
"loss": 6.0932, |
|
"step": 24100 |
|
}, |
|
{ |
|
"epoch": 1.932, |
|
"grad_norm": 0.10861148685216904, |
|
"learning_rate": 0.00017810666666666667, |
|
"loss": 6.1308, |
|
"step": 24150 |
|
}, |
|
{ |
|
"epoch": 1.936, |
|
"grad_norm": 0.14875246584415436, |
|
"learning_rate": 0.00017743999999999998, |
|
"loss": 6.1073, |
|
"step": 24200 |
|
}, |
|
{ |
|
"epoch": 1.94, |
|
"grad_norm": 0.08286185562610626, |
|
"learning_rate": 0.00017677333333333334, |
|
"loss": 6.1551, |
|
"step": 24250 |
|
}, |
|
{ |
|
"epoch": 1.944, |
|
"grad_norm": 0.12915372848510742, |
|
"learning_rate": 0.00017610666666666665, |
|
"loss": 6.1192, |
|
"step": 24300 |
|
}, |
|
{ |
|
"epoch": 1.948, |
|
"grad_norm": 0.07962062209844589, |
|
"learning_rate": 0.00017544000000000001, |
|
"loss": 6.1078, |
|
"step": 24350 |
|
}, |
|
{ |
|
"epoch": 1.952, |
|
"grad_norm": 0.08726031333208084, |
|
"learning_rate": 0.00017477333333333335, |
|
"loss": 6.0849, |
|
"step": 24400 |
|
}, |
|
{ |
|
"epoch": 1.956, |
|
"grad_norm": 0.15104837715625763, |
|
"learning_rate": 0.00017410666666666666, |
|
"loss": 6.1211, |
|
"step": 24450 |
|
}, |
|
{ |
|
"epoch": 1.96, |
|
"grad_norm": 0.07838847488164902, |
|
"learning_rate": 0.00017344000000000002, |
|
"loss": 6.1361, |
|
"step": 24500 |
|
}, |
|
{ |
|
"epoch": 1.964, |
|
"grad_norm": 0.05814399942755699, |
|
"learning_rate": 0.00017277333333333333, |
|
"loss": 6.0881, |
|
"step": 24550 |
|
}, |
|
{ |
|
"epoch": 1.968, |
|
"grad_norm": 0.1351182907819748, |
|
"learning_rate": 0.00017210666666666666, |
|
"loss": 6.0626, |
|
"step": 24600 |
|
}, |
|
{ |
|
"epoch": 1.972, |
|
"grad_norm": 0.07195572555065155, |
|
"learning_rate": 0.00017144000000000003, |
|
"loss": 6.1246, |
|
"step": 24650 |
|
}, |
|
{ |
|
"epoch": 1.976, |
|
"grad_norm": 0.0785103291273117, |
|
"learning_rate": 0.00017077333333333333, |
|
"loss": 6.1282, |
|
"step": 24700 |
|
}, |
|
{ |
|
"epoch": 1.98, |
|
"grad_norm": 0.07543079555034637, |
|
"learning_rate": 0.00017010666666666667, |
|
"loss": 6.1072, |
|
"step": 24750 |
|
}, |
|
{ |
|
"epoch": 1.984, |
|
"grad_norm": 0.07829292118549347, |
|
"learning_rate": 0.00016944, |
|
"loss": 6.1412, |
|
"step": 24800 |
|
}, |
|
{ |
|
"epoch": 1.988, |
|
"grad_norm": 0.07147668302059174, |
|
"learning_rate": 0.00016877333333333334, |
|
"loss": 6.1471, |
|
"step": 24850 |
|
}, |
|
{ |
|
"epoch": 1.992, |
|
"grad_norm": 0.06920904666185379, |
|
"learning_rate": 0.00016810666666666665, |
|
"loss": 6.1035, |
|
"step": 24900 |
|
}, |
|
{ |
|
"epoch": 1.996, |
|
"grad_norm": 0.09822528064250946, |
|
"learning_rate": 0.00016744, |
|
"loss": 6.1287, |
|
"step": 24950 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"grad_norm": 0.10990389436483383, |
|
"learning_rate": 0.00016677333333333334, |
|
"loss": 6.1097, |
|
"step": 25000 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"eval_bleu": 0.8509388154503864, |
|
"eval_cer": 0.017948863188897872, |
|
"eval_f1": 0.93043678086794, |
|
"eval_loss": 6.107422828674316, |
|
"eval_meteor": 0.9223790272331742, |
|
"eval_runtime": 540.7264, |
|
"eval_samples_per_second": 9.247, |
|
"eval_steps_per_second": 0.29, |
|
"eval_wer": 0.0817902182955183, |
|
"step": 25000 |
|
}, |
|
{ |
|
"epoch": 2.004, |
|
"grad_norm": 0.06241412088274956, |
|
"learning_rate": 0.00016610666666666668, |
|
"loss": 6.1159, |
|
"step": 25050 |
|
}, |
|
{ |
|
"epoch": 2.008, |
|
"grad_norm": 0.09459705650806427, |
|
"learning_rate": 0.00016544000000000002, |
|
"loss": 6.1398, |
|
"step": 25100 |
|
}, |
|
{ |
|
"epoch": 2.012, |
|
"grad_norm": 0.069663867354393, |
|
"learning_rate": 0.00016477333333333332, |
|
"loss": 6.129, |
|
"step": 25150 |
|
}, |
|
{ |
|
"epoch": 2.016, |
|
"grad_norm": 0.06462211161851883, |
|
"learning_rate": 0.00016410666666666669, |
|
"loss": 6.1062, |
|
"step": 25200 |
|
}, |
|
{ |
|
"epoch": 2.02, |
|
"grad_norm": 0.059740062803030014, |
|
"learning_rate": 0.00016344, |
|
"loss": 6.1119, |
|
"step": 25250 |
|
}, |
|
{ |
|
"epoch": 2.024, |
|
"grad_norm": 0.08516935259103775, |
|
"learning_rate": 0.00016277333333333333, |
|
"loss": 6.1166, |
|
"step": 25300 |
|
}, |
|
{ |
|
"epoch": 2.028, |
|
"grad_norm": 0.0659923404455185, |
|
"learning_rate": 0.0001621066666666667, |
|
"loss": 6.1097, |
|
"step": 25350 |
|
}, |
|
{ |
|
"epoch": 2.032, |
|
"grad_norm": 0.3307529389858246, |
|
"learning_rate": 0.00016144, |
|
"loss": 6.0997, |
|
"step": 25400 |
|
}, |
|
{ |
|
"epoch": 2.036, |
|
"grad_norm": 0.07213962823152542, |
|
"learning_rate": 0.00016077333333333333, |
|
"loss": 6.125, |
|
"step": 25450 |
|
}, |
|
{ |
|
"epoch": 2.04, |
|
"grad_norm": 0.08951520174741745, |
|
"learning_rate": 0.00016010666666666667, |
|
"loss": 6.1187, |
|
"step": 25500 |
|
}, |
|
{ |
|
"epoch": 2.044, |
|
"grad_norm": 0.08432460576295853, |
|
"learning_rate": 0.00015944, |
|
"loss": 6.1076, |
|
"step": 25550 |
|
}, |
|
{ |
|
"epoch": 2.048, |
|
"grad_norm": 0.09180618822574615, |
|
"learning_rate": 0.0001587733333333333, |
|
"loss": 6.1087, |
|
"step": 25600 |
|
}, |
|
{ |
|
"epoch": 2.052, |
|
"grad_norm": 0.0744001492857933, |
|
"learning_rate": 0.00015810666666666668, |
|
"loss": 6.0819, |
|
"step": 25650 |
|
}, |
|
{ |
|
"epoch": 2.056, |
|
"grad_norm": 0.0708983987569809, |
|
"learning_rate": 0.00015744, |
|
"loss": 6.1112, |
|
"step": 25700 |
|
}, |
|
{ |
|
"epoch": 2.06, |
|
"grad_norm": 0.08963986486196518, |
|
"learning_rate": 0.00015677333333333332, |
|
"loss": 6.0796, |
|
"step": 25750 |
|
}, |
|
{ |
|
"epoch": 2.064, |
|
"grad_norm": 0.07921291142702103, |
|
"learning_rate": 0.00015610666666666668, |
|
"loss": 6.0978, |
|
"step": 25800 |
|
}, |
|
{ |
|
"epoch": 2.068, |
|
"grad_norm": 0.15557201206684113, |
|
"learning_rate": 0.00015544, |
|
"loss": 6.1067, |
|
"step": 25850 |
|
}, |
|
{ |
|
"epoch": 2.072, |
|
"grad_norm": 0.09218396246433258, |
|
"learning_rate": 0.00015477333333333335, |
|
"loss": 6.1149, |
|
"step": 25900 |
|
}, |
|
{ |
|
"epoch": 2.076, |
|
"grad_norm": 0.08177242428064346, |
|
"learning_rate": 0.00015410666666666666, |
|
"loss": 6.0961, |
|
"step": 25950 |
|
}, |
|
{ |
|
"epoch": 2.08, |
|
"grad_norm": 0.10338721424341202, |
|
"learning_rate": 0.00015344, |
|
"loss": 6.1338, |
|
"step": 26000 |
|
}, |
|
{ |
|
"epoch": 2.084, |
|
"grad_norm": 0.0902288481593132, |
|
"learning_rate": 0.00015277333333333336, |
|
"loss": 6.1286, |
|
"step": 26050 |
|
}, |
|
{ |
|
"epoch": 2.088, |
|
"grad_norm": 0.10780780762434006, |
|
"learning_rate": 0.00015210666666666666, |
|
"loss": 6.1151, |
|
"step": 26100 |
|
}, |
|
{ |
|
"epoch": 2.092, |
|
"grad_norm": 0.09068985283374786, |
|
"learning_rate": 0.00015144, |
|
"loss": 6.0956, |
|
"step": 26150 |
|
}, |
|
{ |
|
"epoch": 2.096, |
|
"grad_norm": 0.10990087687969208, |
|
"learning_rate": 0.00015077333333333334, |
|
"loss": 6.1058, |
|
"step": 26200 |
|
}, |
|
{ |
|
"epoch": 2.1, |
|
"grad_norm": 0.07775469869375229, |
|
"learning_rate": 0.00015010666666666667, |
|
"loss": 6.0823, |
|
"step": 26250 |
|
}, |
|
{ |
|
"epoch": 2.104, |
|
"grad_norm": 0.06577832251787186, |
|
"learning_rate": 0.00014944, |
|
"loss": 6.1162, |
|
"step": 26300 |
|
}, |
|
{ |
|
"epoch": 2.108, |
|
"grad_norm": 0.08135217428207397, |
|
"learning_rate": 0.00014877333333333334, |
|
"loss": 6.1108, |
|
"step": 26350 |
|
}, |
|
{ |
|
"epoch": 2.112, |
|
"grad_norm": 0.0771484225988388, |
|
"learning_rate": 0.00014810666666666668, |
|
"loss": 6.1306, |
|
"step": 26400 |
|
}, |
|
{ |
|
"epoch": 2.116, |
|
"grad_norm": 0.09126853942871094, |
|
"learning_rate": 0.00014743999999999998, |
|
"loss": 6.1122, |
|
"step": 26450 |
|
}, |
|
{ |
|
"epoch": 2.12, |
|
"grad_norm": 0.16346502304077148, |
|
"learning_rate": 0.00014677333333333335, |
|
"loss": 6.11, |
|
"step": 26500 |
|
}, |
|
{ |
|
"epoch": 2.124, |
|
"grad_norm": 0.059007637202739716, |
|
"learning_rate": 0.00014610666666666665, |
|
"loss": 6.0865, |
|
"step": 26550 |
|
}, |
|
{ |
|
"epoch": 2.128, |
|
"grad_norm": 0.08361868560314178, |
|
"learning_rate": 0.00014544000000000002, |
|
"loss": 6.0962, |
|
"step": 26600 |
|
}, |
|
{ |
|
"epoch": 2.132, |
|
"grad_norm": 0.09910906851291656, |
|
"learning_rate": 0.00014477333333333335, |
|
"loss": 6.0886, |
|
"step": 26650 |
|
}, |
|
{ |
|
"epoch": 2.136, |
|
"grad_norm": 0.08104857057332993, |
|
"learning_rate": 0.00014410666666666666, |
|
"loss": 6.148, |
|
"step": 26700 |
|
}, |
|
{ |
|
"epoch": 2.14, |
|
"grad_norm": 0.1739630252122879, |
|
"learning_rate": 0.00014344000000000002, |
|
"loss": 6.09, |
|
"step": 26750 |
|
}, |
|
{ |
|
"epoch": 2.144, |
|
"grad_norm": 0.10630565881729126, |
|
"learning_rate": 0.00014277333333333333, |
|
"loss": 6.1252, |
|
"step": 26800 |
|
}, |
|
{ |
|
"epoch": 2.148, |
|
"grad_norm": 0.06492559611797333, |
|
"learning_rate": 0.00014210666666666667, |
|
"loss": 6.1025, |
|
"step": 26850 |
|
}, |
|
{ |
|
"epoch": 2.152, |
|
"grad_norm": 0.09379439800977707, |
|
"learning_rate": 0.00014144, |
|
"loss": 6.1086, |
|
"step": 26900 |
|
}, |
|
{ |
|
"epoch": 2.156, |
|
"grad_norm": 0.11896802484989166, |
|
"learning_rate": 0.00014077333333333334, |
|
"loss": 6.1093, |
|
"step": 26950 |
|
}, |
|
{ |
|
"epoch": 2.16, |
|
"grad_norm": 0.06822894513607025, |
|
"learning_rate": 0.00014010666666666667, |
|
"loss": 6.1173, |
|
"step": 27000 |
|
}, |
|
{ |
|
"epoch": 2.164, |
|
"grad_norm": 0.07600221037864685, |
|
"learning_rate": 0.00013944, |
|
"loss": 6.1309, |
|
"step": 27050 |
|
}, |
|
{ |
|
"epoch": 2.168, |
|
"grad_norm": 0.086393341422081, |
|
"learning_rate": 0.00013877333333333334, |
|
"loss": 6.1105, |
|
"step": 27100 |
|
}, |
|
{ |
|
"epoch": 2.172, |
|
"grad_norm": 0.07227867096662521, |
|
"learning_rate": 0.00013810666666666665, |
|
"loss": 6.1184, |
|
"step": 27150 |
|
}, |
|
{ |
|
"epoch": 2.176, |
|
"grad_norm": 0.06168118491768837, |
|
"learning_rate": 0.00013744, |
|
"loss": 6.1369, |
|
"step": 27200 |
|
}, |
|
{ |
|
"epoch": 2.18, |
|
"grad_norm": 0.07761823385953903, |
|
"learning_rate": 0.00013677333333333332, |
|
"loss": 6.1207, |
|
"step": 27250 |
|
}, |
|
{ |
|
"epoch": 2.184, |
|
"grad_norm": 0.09843423217535019, |
|
"learning_rate": 0.00013610666666666666, |
|
"loss": 6.1224, |
|
"step": 27300 |
|
}, |
|
{ |
|
"epoch": 2.188, |
|
"grad_norm": 0.09387116879224777, |
|
"learning_rate": 0.00013544000000000002, |
|
"loss": 6.1063, |
|
"step": 27350 |
|
}, |
|
{ |
|
"epoch": 2.192, |
|
"grad_norm": 0.12370068579912186, |
|
"learning_rate": 0.00013477333333333333, |
|
"loss": 6.1303, |
|
"step": 27400 |
|
}, |
|
{ |
|
"epoch": 2.196, |
|
"grad_norm": 0.05456452816724777, |
|
"learning_rate": 0.0001341066666666667, |
|
"loss": 6.1304, |
|
"step": 27450 |
|
}, |
|
{ |
|
"epoch": 2.2, |
|
"grad_norm": 0.1500086784362793, |
|
"learning_rate": 0.00013344, |
|
"loss": 6.129, |
|
"step": 27500 |
|
}, |
|
{ |
|
"epoch": 2.204, |
|
"grad_norm": 0.08891820162534714, |
|
"learning_rate": 0.00013277333333333333, |
|
"loss": 6.1427, |
|
"step": 27550 |
|
}, |
|
{ |
|
"epoch": 2.208, |
|
"grad_norm": 0.11425920575857162, |
|
"learning_rate": 0.0001321066666666667, |
|
"loss": 6.1483, |
|
"step": 27600 |
|
}, |
|
{ |
|
"epoch": 2.212, |
|
"grad_norm": 0.10232799500226974, |
|
"learning_rate": 0.00013144, |
|
"loss": 6.0987, |
|
"step": 27650 |
|
}, |
|
{ |
|
"epoch": 2.216, |
|
"grad_norm": 0.09197191894054413, |
|
"learning_rate": 0.00013077333333333334, |
|
"loss": 6.0993, |
|
"step": 27700 |
|
}, |
|
{ |
|
"epoch": 2.22, |
|
"grad_norm": 0.0773281455039978, |
|
"learning_rate": 0.00013010666666666667, |
|
"loss": 6.0992, |
|
"step": 27750 |
|
}, |
|
{ |
|
"epoch": 2.224, |
|
"grad_norm": 0.11628571152687073, |
|
"learning_rate": 0.00012944, |
|
"loss": 6.1127, |
|
"step": 27800 |
|
}, |
|
{ |
|
"epoch": 2.228, |
|
"grad_norm": 0.0823330357670784, |
|
"learning_rate": 0.00012877333333333332, |
|
"loss": 6.1142, |
|
"step": 27850 |
|
}, |
|
{ |
|
"epoch": 2.232, |
|
"grad_norm": 0.10128411650657654, |
|
"learning_rate": 0.00012810666666666668, |
|
"loss": 6.0879, |
|
"step": 27900 |
|
}, |
|
{ |
|
"epoch": 2.2359999999999998, |
|
"grad_norm": 0.11747880280017853, |
|
"learning_rate": 0.00012744, |
|
"loss": 6.1097, |
|
"step": 27950 |
|
}, |
|
{ |
|
"epoch": 2.24, |
|
"grad_norm": 0.11556991934776306, |
|
"learning_rate": 0.00012677333333333332, |
|
"loss": 6.1073, |
|
"step": 28000 |
|
}, |
|
{ |
|
"epoch": 2.2439999999999998, |
|
"grad_norm": 0.09097258746623993, |
|
"learning_rate": 0.00012610666666666668, |
|
"loss": 6.1261, |
|
"step": 28050 |
|
}, |
|
{ |
|
"epoch": 2.248, |
|
"grad_norm": 0.07386935502290726, |
|
"learning_rate": 0.00012544, |
|
"loss": 6.1137, |
|
"step": 28100 |
|
}, |
|
{ |
|
"epoch": 2.252, |
|
"grad_norm": 0.08384504169225693, |
|
"learning_rate": 0.00012477333333333333, |
|
"loss": 6.1333, |
|
"step": 28150 |
|
}, |
|
{ |
|
"epoch": 2.2560000000000002, |
|
"grad_norm": 0.13308189809322357, |
|
"learning_rate": 0.00012410666666666666, |
|
"loss": 6.0858, |
|
"step": 28200 |
|
}, |
|
{ |
|
"epoch": 2.26, |
|
"grad_norm": 0.0804629996418953, |
|
"learning_rate": 0.00012344, |
|
"loss": 6.1368, |
|
"step": 28250 |
|
}, |
|
{ |
|
"epoch": 2.2640000000000002, |
|
"grad_norm": 0.06366775929927826, |
|
"learning_rate": 0.00012277333333333333, |
|
"loss": 6.1195, |
|
"step": 28300 |
|
}, |
|
{ |
|
"epoch": 2.268, |
|
"grad_norm": 0.08126317709684372, |
|
"learning_rate": 0.00012210666666666667, |
|
"loss": 6.1136, |
|
"step": 28350 |
|
}, |
|
{ |
|
"epoch": 2.2720000000000002, |
|
"grad_norm": 0.0739387795329094, |
|
"learning_rate": 0.00012144, |
|
"loss": 6.0753, |
|
"step": 28400 |
|
}, |
|
{ |
|
"epoch": 2.276, |
|
"grad_norm": 0.08141763508319855, |
|
"learning_rate": 0.00012077333333333334, |
|
"loss": 6.11, |
|
"step": 28450 |
|
}, |
|
{ |
|
"epoch": 2.2800000000000002, |
|
"grad_norm": 0.16061526536941528, |
|
"learning_rate": 0.00012010666666666667, |
|
"loss": 6.0626, |
|
"step": 28500 |
|
}, |
|
{ |
|
"epoch": 2.284, |
|
"grad_norm": 0.06370881199836731, |
|
"learning_rate": 0.00011944000000000001, |
|
"loss": 6.1, |
|
"step": 28550 |
|
}, |
|
{ |
|
"epoch": 2.288, |
|
"grad_norm": 0.08565754443407059, |
|
"learning_rate": 0.00011877333333333333, |
|
"loss": 6.0766, |
|
"step": 28600 |
|
}, |
|
{ |
|
"epoch": 2.292, |
|
"grad_norm": 0.08244933933019638, |
|
"learning_rate": 0.00011810666666666667, |
|
"loss": 6.1032, |
|
"step": 28650 |
|
}, |
|
{ |
|
"epoch": 2.296, |
|
"grad_norm": 0.09672416001558304, |
|
"learning_rate": 0.00011744, |
|
"loss": 6.1187, |
|
"step": 28700 |
|
}, |
|
{ |
|
"epoch": 2.3, |
|
"grad_norm": 0.15543796122074127, |
|
"learning_rate": 0.00011677333333333335, |
|
"loss": 6.1218, |
|
"step": 28750 |
|
}, |
|
{ |
|
"epoch": 2.304, |
|
"grad_norm": 0.20320799946784973, |
|
"learning_rate": 0.00011610666666666667, |
|
"loss": 6.1023, |
|
"step": 28800 |
|
}, |
|
{ |
|
"epoch": 2.308, |
|
"grad_norm": 0.08330374956130981, |
|
"learning_rate": 0.00011544, |
|
"loss": 6.1187, |
|
"step": 28850 |
|
}, |
|
{ |
|
"epoch": 2.312, |
|
"grad_norm": 0.151125967502594, |
|
"learning_rate": 0.00011477333333333334, |
|
"loss": 6.1187, |
|
"step": 28900 |
|
}, |
|
{ |
|
"epoch": 2.316, |
|
"grad_norm": 0.08216053247451782, |
|
"learning_rate": 0.00011410666666666666, |
|
"loss": 6.1048, |
|
"step": 28950 |
|
}, |
|
{ |
|
"epoch": 2.32, |
|
"grad_norm": 0.14266152679920197, |
|
"learning_rate": 0.00011344, |
|
"loss": 6.1401, |
|
"step": 29000 |
|
}, |
|
{ |
|
"epoch": 2.324, |
|
"grad_norm": 0.09180327504873276, |
|
"learning_rate": 0.00011277333333333333, |
|
"loss": 6.0999, |
|
"step": 29050 |
|
}, |
|
{ |
|
"epoch": 2.328, |
|
"grad_norm": 0.10606887936592102, |
|
"learning_rate": 0.00011210666666666667, |
|
"loss": 6.0982, |
|
"step": 29100 |
|
}, |
|
{ |
|
"epoch": 2.332, |
|
"grad_norm": 0.0734487995505333, |
|
"learning_rate": 0.00011144, |
|
"loss": 6.1313, |
|
"step": 29150 |
|
}, |
|
{ |
|
"epoch": 2.336, |
|
"grad_norm": 0.08945748209953308, |
|
"learning_rate": 0.00011077333333333334, |
|
"loss": 6.1031, |
|
"step": 29200 |
|
}, |
|
{ |
|
"epoch": 2.34, |
|
"grad_norm": 0.07958261668682098, |
|
"learning_rate": 0.00011010666666666667, |
|
"loss": 6.1107, |
|
"step": 29250 |
|
}, |
|
{ |
|
"epoch": 2.344, |
|
"grad_norm": 0.07484224438667297, |
|
"learning_rate": 0.00010944, |
|
"loss": 6.1076, |
|
"step": 29300 |
|
}, |
|
{ |
|
"epoch": 2.348, |
|
"grad_norm": 0.1674572229385376, |
|
"learning_rate": 0.00010877333333333333, |
|
"loss": 6.103, |
|
"step": 29350 |
|
}, |
|
{ |
|
"epoch": 2.352, |
|
"grad_norm": 0.06534720957279205, |
|
"learning_rate": 0.00010810666666666667, |
|
"loss": 6.0897, |
|
"step": 29400 |
|
}, |
|
{ |
|
"epoch": 2.356, |
|
"grad_norm": 0.09585539996623993, |
|
"learning_rate": 0.00010744, |
|
"loss": 6.1084, |
|
"step": 29450 |
|
}, |
|
{ |
|
"epoch": 2.36, |
|
"grad_norm": 0.07976046204566956, |
|
"learning_rate": 0.00010677333333333334, |
|
"loss": 6.0825, |
|
"step": 29500 |
|
}, |
|
{ |
|
"epoch": 2.364, |
|
"grad_norm": 0.07807755470275879, |
|
"learning_rate": 0.00010610666666666667, |
|
"loss": 6.0998, |
|
"step": 29550 |
|
}, |
|
{ |
|
"epoch": 2.368, |
|
"grad_norm": 0.08168377727270126, |
|
"learning_rate": 0.00010544000000000001, |
|
"loss": 6.082, |
|
"step": 29600 |
|
}, |
|
{ |
|
"epoch": 2.372, |
|
"grad_norm": 0.08476163446903229, |
|
"learning_rate": 0.00010477333333333333, |
|
"loss": 6.1152, |
|
"step": 29650 |
|
}, |
|
{ |
|
"epoch": 2.376, |
|
"grad_norm": 0.11050921678543091, |
|
"learning_rate": 0.00010410666666666666, |
|
"loss": 6.1566, |
|
"step": 29700 |
|
}, |
|
{ |
|
"epoch": 2.38, |
|
"grad_norm": 0.10973154008388519, |
|
"learning_rate": 0.00010344000000000001, |
|
"loss": 6.0954, |
|
"step": 29750 |
|
}, |
|
{ |
|
"epoch": 2.384, |
|
"grad_norm": 0.11800642311573029, |
|
"learning_rate": 0.00010277333333333333, |
|
"loss": 6.11, |
|
"step": 29800 |
|
}, |
|
{ |
|
"epoch": 2.388, |
|
"grad_norm": 0.0964646190404892, |
|
"learning_rate": 0.00010210666666666667, |
|
"loss": 6.1142, |
|
"step": 29850 |
|
}, |
|
{ |
|
"epoch": 2.392, |
|
"grad_norm": 0.07550235837697983, |
|
"learning_rate": 0.00010144, |
|
"loss": 6.1179, |
|
"step": 29900 |
|
}, |
|
{ |
|
"epoch": 2.396, |
|
"grad_norm": 0.07429670542478561, |
|
"learning_rate": 0.00010077333333333334, |
|
"loss": 6.1152, |
|
"step": 29950 |
|
}, |
|
{ |
|
"epoch": 2.4, |
|
"grad_norm": 0.10282744467258453, |
|
"learning_rate": 0.00010010666666666666, |
|
"loss": 6.1089, |
|
"step": 30000 |
|
}, |
|
{ |
|
"epoch": 2.404, |
|
"grad_norm": 0.07674600183963776, |
|
"learning_rate": 9.944e-05, |
|
"loss": 6.1254, |
|
"step": 30050 |
|
}, |
|
{ |
|
"epoch": 2.408, |
|
"grad_norm": 0.10146459192037582, |
|
"learning_rate": 9.878666666666667e-05, |
|
"loss": 6.0998, |
|
"step": 30100 |
|
}, |
|
{ |
|
"epoch": 2.412, |
|
"grad_norm": 0.0810420960187912, |
|
"learning_rate": 9.812e-05, |
|
"loss": 6.1144, |
|
"step": 30150 |
|
}, |
|
{ |
|
"epoch": 2.416, |
|
"grad_norm": 0.09415046125650406, |
|
"learning_rate": 9.745333333333334e-05, |
|
"loss": 6.0945, |
|
"step": 30200 |
|
}, |
|
{ |
|
"epoch": 2.42, |
|
"grad_norm": 0.07557525485754013, |
|
"learning_rate": 9.678666666666666e-05, |
|
"loss": 6.1025, |
|
"step": 30250 |
|
}, |
|
{ |
|
"epoch": 2.424, |
|
"grad_norm": 0.08086816966533661, |
|
"learning_rate": 9.612e-05, |
|
"loss": 6.0887, |
|
"step": 30300 |
|
}, |
|
{ |
|
"epoch": 2.428, |
|
"grad_norm": 0.08543414622545242, |
|
"learning_rate": 9.545333333333333e-05, |
|
"loss": 6.1436, |
|
"step": 30350 |
|
}, |
|
{ |
|
"epoch": 2.432, |
|
"grad_norm": 0.17740271985530853, |
|
"learning_rate": 9.478666666666668e-05, |
|
"loss": 6.0963, |
|
"step": 30400 |
|
}, |
|
{ |
|
"epoch": 2.436, |
|
"grad_norm": 0.0797586590051651, |
|
"learning_rate": 9.412e-05, |
|
"loss": 6.1044, |
|
"step": 30450 |
|
}, |
|
{ |
|
"epoch": 2.44, |
|
"grad_norm": 0.05403298884630203, |
|
"learning_rate": 9.345333333333334e-05, |
|
"loss": 6.1379, |
|
"step": 30500 |
|
}, |
|
{ |
|
"epoch": 2.444, |
|
"grad_norm": 0.09752552956342697, |
|
"learning_rate": 9.278666666666667e-05, |
|
"loss": 6.0842, |
|
"step": 30550 |
|
}, |
|
{ |
|
"epoch": 2.448, |
|
"grad_norm": 0.09071024507284164, |
|
"learning_rate": 9.211999999999999e-05, |
|
"loss": 6.0954, |
|
"step": 30600 |
|
}, |
|
{ |
|
"epoch": 2.452, |
|
"grad_norm": 0.11716838926076889, |
|
"learning_rate": 9.145333333333333e-05, |
|
"loss": 6.1051, |
|
"step": 30650 |
|
}, |
|
{ |
|
"epoch": 2.456, |
|
"grad_norm": 0.0909012034535408, |
|
"learning_rate": 9.078666666666668e-05, |
|
"loss": 6.1249, |
|
"step": 30700 |
|
}, |
|
{ |
|
"epoch": 2.46, |
|
"grad_norm": 0.14910614490509033, |
|
"learning_rate": 9.012000000000001e-05, |
|
"loss": 6.1065, |
|
"step": 30750 |
|
}, |
|
{ |
|
"epoch": 2.464, |
|
"grad_norm": 0.07372134178876877, |
|
"learning_rate": 8.945333333333333e-05, |
|
"loss": 6.1308, |
|
"step": 30800 |
|
}, |
|
{ |
|
"epoch": 2.468, |
|
"grad_norm": 0.07839683443307877, |
|
"learning_rate": 8.878666666666667e-05, |
|
"loss": 6.1396, |
|
"step": 30850 |
|
}, |
|
{ |
|
"epoch": 2.472, |
|
"grad_norm": 0.08859548717737198, |
|
"learning_rate": 8.812e-05, |
|
"loss": 6.0815, |
|
"step": 30900 |
|
}, |
|
{ |
|
"epoch": 2.476, |
|
"grad_norm": 0.08864545822143555, |
|
"learning_rate": 8.745333333333332e-05, |
|
"loss": 6.1185, |
|
"step": 30950 |
|
}, |
|
{ |
|
"epoch": 2.48, |
|
"grad_norm": 0.10425064712762833, |
|
"learning_rate": 8.678666666666666e-05, |
|
"loss": 6.0994, |
|
"step": 31000 |
|
}, |
|
{ |
|
"epoch": 2.484, |
|
"grad_norm": 0.06852062046527863, |
|
"learning_rate": 8.612000000000001e-05, |
|
"loss": 6.1114, |
|
"step": 31050 |
|
}, |
|
{ |
|
"epoch": 2.488, |
|
"grad_norm": 0.12233876436948776, |
|
"learning_rate": 8.545333333333334e-05, |
|
"loss": 6.11, |
|
"step": 31100 |
|
}, |
|
{ |
|
"epoch": 2.492, |
|
"grad_norm": 0.0806891992688179, |
|
"learning_rate": 8.478666666666667e-05, |
|
"loss": 6.112, |
|
"step": 31150 |
|
}, |
|
{ |
|
"epoch": 2.496, |
|
"grad_norm": 0.08674288541078568, |
|
"learning_rate": 8.412e-05, |
|
"loss": 6.1304, |
|
"step": 31200 |
|
}, |
|
{ |
|
"epoch": 2.5, |
|
"grad_norm": 0.09121359884738922, |
|
"learning_rate": 8.345333333333334e-05, |
|
"loss": 6.1332, |
|
"step": 31250 |
|
}, |
|
{ |
|
"epoch": 2.504, |
|
"grad_norm": 0.083242267370224, |
|
"learning_rate": 8.278666666666666e-05, |
|
"loss": 6.1249, |
|
"step": 31300 |
|
}, |
|
{ |
|
"epoch": 2.508, |
|
"grad_norm": 0.18824157118797302, |
|
"learning_rate": 8.212e-05, |
|
"loss": 6.1151, |
|
"step": 31350 |
|
}, |
|
{ |
|
"epoch": 2.512, |
|
"grad_norm": 0.08466707915067673, |
|
"learning_rate": 8.145333333333334e-05, |
|
"loss": 6.0965, |
|
"step": 31400 |
|
}, |
|
{ |
|
"epoch": 2.516, |
|
"grad_norm": 0.08986948430538177, |
|
"learning_rate": 8.078666666666668e-05, |
|
"loss": 6.1397, |
|
"step": 31450 |
|
}, |
|
{ |
|
"epoch": 2.52, |
|
"grad_norm": 0.08780477195978165, |
|
"learning_rate": 8.012e-05, |
|
"loss": 6.1163, |
|
"step": 31500 |
|
}, |
|
{ |
|
"epoch": 2.524, |
|
"grad_norm": 0.06769109517335892, |
|
"learning_rate": 7.945333333333333e-05, |
|
"loss": 6.0782, |
|
"step": 31550 |
|
}, |
|
{ |
|
"epoch": 2.528, |
|
"grad_norm": 0.07765094190835953, |
|
"learning_rate": 7.878666666666667e-05, |
|
"loss": 6.1072, |
|
"step": 31600 |
|
}, |
|
{ |
|
"epoch": 2.532, |
|
"grad_norm": 0.08137909322977066, |
|
"learning_rate": 7.811999999999999e-05, |
|
"loss": 6.1192, |
|
"step": 31650 |
|
}, |
|
{ |
|
"epoch": 2.536, |
|
"grad_norm": 0.08229710906744003, |
|
"learning_rate": 7.745333333333334e-05, |
|
"loss": 6.1185, |
|
"step": 31700 |
|
}, |
|
{ |
|
"epoch": 2.54, |
|
"grad_norm": 0.06525582075119019, |
|
"learning_rate": 7.678666666666667e-05, |
|
"loss": 6.0934, |
|
"step": 31750 |
|
}, |
|
{ |
|
"epoch": 2.544, |
|
"grad_norm": 0.12746158242225647, |
|
"learning_rate": 7.612e-05, |
|
"loss": 6.1118, |
|
"step": 31800 |
|
}, |
|
{ |
|
"epoch": 2.548, |
|
"grad_norm": 0.09764963388442993, |
|
"learning_rate": 7.545333333333333e-05, |
|
"loss": 6.118, |
|
"step": 31850 |
|
}, |
|
{ |
|
"epoch": 2.552, |
|
"grad_norm": 0.11228886246681213, |
|
"learning_rate": 7.478666666666667e-05, |
|
"loss": 6.0975, |
|
"step": 31900 |
|
}, |
|
{ |
|
"epoch": 2.556, |
|
"grad_norm": 0.07479457557201385, |
|
"learning_rate": 7.412e-05, |
|
"loss": 6.1169, |
|
"step": 31950 |
|
}, |
|
{ |
|
"epoch": 2.56, |
|
"grad_norm": 0.08264287561178207, |
|
"learning_rate": 7.345333333333334e-05, |
|
"loss": 6.0964, |
|
"step": 32000 |
|
}, |
|
{ |
|
"epoch": 2.564, |
|
"grad_norm": 0.11619406938552856, |
|
"learning_rate": 7.278666666666667e-05, |
|
"loss": 6.1208, |
|
"step": 32050 |
|
}, |
|
{ |
|
"epoch": 2.568, |
|
"grad_norm": 0.07110919803380966, |
|
"learning_rate": 7.212000000000001e-05, |
|
"loss": 6.1303, |
|
"step": 32100 |
|
}, |
|
{ |
|
"epoch": 2.572, |
|
"grad_norm": 0.09006128460168839, |
|
"learning_rate": 7.145333333333333e-05, |
|
"loss": 6.0888, |
|
"step": 32150 |
|
}, |
|
{ |
|
"epoch": 2.576, |
|
"grad_norm": 0.08671920001506805, |
|
"learning_rate": 7.078666666666666e-05, |
|
"loss": 6.1215, |
|
"step": 32200 |
|
}, |
|
{ |
|
"epoch": 2.58, |
|
"grad_norm": 0.07779053598642349, |
|
"learning_rate": 7.012e-05, |
|
"loss": 6.1308, |
|
"step": 32250 |
|
}, |
|
{ |
|
"epoch": 2.584, |
|
"grad_norm": 0.0918804481625557, |
|
"learning_rate": 6.945333333333333e-05, |
|
"loss": 6.1247, |
|
"step": 32300 |
|
}, |
|
{ |
|
"epoch": 2.588, |
|
"grad_norm": 0.08833949267864227, |
|
"learning_rate": 6.878666666666667e-05, |
|
"loss": 6.1255, |
|
"step": 32350 |
|
}, |
|
{ |
|
"epoch": 2.592, |
|
"grad_norm": 0.0813971608877182, |
|
"learning_rate": 6.812e-05, |
|
"loss": 6.1203, |
|
"step": 32400 |
|
}, |
|
{ |
|
"epoch": 2.596, |
|
"grad_norm": 0.11117328703403473, |
|
"learning_rate": 6.746666666666666e-05, |
|
"loss": 6.0935, |
|
"step": 32450 |
|
}, |
|
{ |
|
"epoch": 2.6, |
|
"grad_norm": 0.07470870018005371, |
|
"learning_rate": 6.68e-05, |
|
"loss": 6.1147, |
|
"step": 32500 |
|
}, |
|
{ |
|
"epoch": 2.604, |
|
"grad_norm": 0.08403927087783813, |
|
"learning_rate": 6.613333333333333e-05, |
|
"loss": 6.0853, |
|
"step": 32550 |
|
}, |
|
{ |
|
"epoch": 2.608, |
|
"grad_norm": 0.09930143505334854, |
|
"learning_rate": 6.546666666666667e-05, |
|
"loss": 6.1076, |
|
"step": 32600 |
|
}, |
|
{ |
|
"epoch": 2.612, |
|
"grad_norm": 0.06665149331092834, |
|
"learning_rate": 6.48e-05, |
|
"loss": 6.0954, |
|
"step": 32650 |
|
}, |
|
{ |
|
"epoch": 2.616, |
|
"grad_norm": 0.06632450222969055, |
|
"learning_rate": 6.413333333333334e-05, |
|
"loss": 6.1121, |
|
"step": 32700 |
|
}, |
|
{ |
|
"epoch": 2.62, |
|
"grad_norm": 0.11766459047794342, |
|
"learning_rate": 6.346666666666667e-05, |
|
"loss": 6.0906, |
|
"step": 32750 |
|
}, |
|
{ |
|
"epoch": 2.624, |
|
"grad_norm": 0.14395442605018616, |
|
"learning_rate": 6.28e-05, |
|
"loss": 6.116, |
|
"step": 32800 |
|
}, |
|
{ |
|
"epoch": 2.628, |
|
"grad_norm": 0.08648652583360672, |
|
"learning_rate": 6.213333333333333e-05, |
|
"loss": 6.1156, |
|
"step": 32850 |
|
}, |
|
{ |
|
"epoch": 2.632, |
|
"grad_norm": 0.10426576435565948, |
|
"learning_rate": 6.146666666666667e-05, |
|
"loss": 6.0909, |
|
"step": 32900 |
|
}, |
|
{ |
|
"epoch": 2.636, |
|
"grad_norm": 0.08094645291566849, |
|
"learning_rate": 6.08e-05, |
|
"loss": 6.126, |
|
"step": 32950 |
|
}, |
|
{ |
|
"epoch": 2.64, |
|
"grad_norm": 0.08826056867837906, |
|
"learning_rate": 6.013333333333333e-05, |
|
"loss": 6.1171, |
|
"step": 33000 |
|
}, |
|
{ |
|
"epoch": 2.644, |
|
"grad_norm": 0.07126999646425247, |
|
"learning_rate": 5.946666666666667e-05, |
|
"loss": 6.1198, |
|
"step": 33050 |
|
}, |
|
{ |
|
"epoch": 2.648, |
|
"grad_norm": 0.09627427905797958, |
|
"learning_rate": 5.88e-05, |
|
"loss": 6.1132, |
|
"step": 33100 |
|
}, |
|
{ |
|
"epoch": 2.652, |
|
"grad_norm": 0.07886403799057007, |
|
"learning_rate": 5.8133333333333335e-05, |
|
"loss": 6.0852, |
|
"step": 33150 |
|
}, |
|
{ |
|
"epoch": 2.656, |
|
"grad_norm": 0.0696234479546547, |
|
"learning_rate": 5.746666666666667e-05, |
|
"loss": 6.1071, |
|
"step": 33200 |
|
}, |
|
{ |
|
"epoch": 2.66, |
|
"grad_norm": 0.0665351077914238, |
|
"learning_rate": 5.6800000000000005e-05, |
|
"loss": 6.0959, |
|
"step": 33250 |
|
}, |
|
{ |
|
"epoch": 2.664, |
|
"grad_norm": 0.11237353086471558, |
|
"learning_rate": 5.6133333333333333e-05, |
|
"loss": 6.0923, |
|
"step": 33300 |
|
}, |
|
{ |
|
"epoch": 2.668, |
|
"grad_norm": 0.10735862702131271, |
|
"learning_rate": 5.546666666666666e-05, |
|
"loss": 6.09, |
|
"step": 33350 |
|
}, |
|
{ |
|
"epoch": 2.672, |
|
"grad_norm": 0.09538553655147552, |
|
"learning_rate": 5.4800000000000004e-05, |
|
"loss": 6.1029, |
|
"step": 33400 |
|
}, |
|
{ |
|
"epoch": 2.676, |
|
"grad_norm": 0.06470570713281631, |
|
"learning_rate": 5.413333333333333e-05, |
|
"loss": 6.0971, |
|
"step": 33450 |
|
}, |
|
{ |
|
"epoch": 2.68, |
|
"grad_norm": 0.09996616095304489, |
|
"learning_rate": 5.346666666666667e-05, |
|
"loss": 6.1219, |
|
"step": 33500 |
|
}, |
|
{ |
|
"epoch": 2.684, |
|
"grad_norm": 0.11110475659370422, |
|
"learning_rate": 5.28e-05, |
|
"loss": 6.1232, |
|
"step": 33550 |
|
}, |
|
{ |
|
"epoch": 2.6879999999999997, |
|
"grad_norm": 0.06958124041557312, |
|
"learning_rate": 5.213333333333333e-05, |
|
"loss": 6.1061, |
|
"step": 33600 |
|
}, |
|
{ |
|
"epoch": 2.692, |
|
"grad_norm": 0.09472180157899857, |
|
"learning_rate": 5.148e-05, |
|
"loss": 6.0987, |
|
"step": 33650 |
|
}, |
|
{ |
|
"epoch": 2.6959999999999997, |
|
"grad_norm": 0.2217915952205658, |
|
"learning_rate": 5.081333333333334e-05, |
|
"loss": 6.1085, |
|
"step": 33700 |
|
}, |
|
{ |
|
"epoch": 2.7, |
|
"grad_norm": 0.10178756713867188, |
|
"learning_rate": 5.0146666666666665e-05, |
|
"loss": 6.1095, |
|
"step": 33750 |
|
}, |
|
{ |
|
"epoch": 2.7039999999999997, |
|
"grad_norm": 0.08223158121109009, |
|
"learning_rate": 4.948000000000001e-05, |
|
"loss": 6.0995, |
|
"step": 33800 |
|
}, |
|
{ |
|
"epoch": 2.708, |
|
"grad_norm": 0.07961177825927734, |
|
"learning_rate": 4.8813333333333336e-05, |
|
"loss": 6.1195, |
|
"step": 33850 |
|
}, |
|
{ |
|
"epoch": 2.7119999999999997, |
|
"grad_norm": 0.1597965508699417, |
|
"learning_rate": 4.8146666666666664e-05, |
|
"loss": 6.1009, |
|
"step": 33900 |
|
}, |
|
{ |
|
"epoch": 2.716, |
|
"grad_norm": 0.09183373302221298, |
|
"learning_rate": 4.748e-05, |
|
"loss": 6.1061, |
|
"step": 33950 |
|
}, |
|
{ |
|
"epoch": 2.7199999999999998, |
|
"grad_norm": 0.08628141134977341, |
|
"learning_rate": 4.6813333333333335e-05, |
|
"loss": 6.1085, |
|
"step": 34000 |
|
}, |
|
{ |
|
"epoch": 2.724, |
|
"grad_norm": 0.0695403665304184, |
|
"learning_rate": 4.614666666666667e-05, |
|
"loss": 6.135, |
|
"step": 34050 |
|
}, |
|
{ |
|
"epoch": 2.7279999999999998, |
|
"grad_norm": 0.14120854437351227, |
|
"learning_rate": 4.548e-05, |
|
"loss": 6.0907, |
|
"step": 34100 |
|
}, |
|
{ |
|
"epoch": 2.732, |
|
"grad_norm": 0.08242190629243851, |
|
"learning_rate": 4.4813333333333333e-05, |
|
"loss": 6.1398, |
|
"step": 34150 |
|
}, |
|
{ |
|
"epoch": 2.7359999999999998, |
|
"grad_norm": 0.0979577824473381, |
|
"learning_rate": 4.414666666666667e-05, |
|
"loss": 6.1122, |
|
"step": 34200 |
|
}, |
|
{ |
|
"epoch": 2.74, |
|
"grad_norm": 0.06977363675832748, |
|
"learning_rate": 4.348e-05, |
|
"loss": 6.0902, |
|
"step": 34250 |
|
}, |
|
{ |
|
"epoch": 2.7439999999999998, |
|
"grad_norm": 0.09895601868629456, |
|
"learning_rate": 4.281333333333334e-05, |
|
"loss": 6.1017, |
|
"step": 34300 |
|
}, |
|
{ |
|
"epoch": 2.748, |
|
"grad_norm": 0.09403648972511292, |
|
"learning_rate": 4.214666666666667e-05, |
|
"loss": 6.1252, |
|
"step": 34350 |
|
}, |
|
{ |
|
"epoch": 2.752, |
|
"grad_norm": 0.06880457699298859, |
|
"learning_rate": 4.148e-05, |
|
"loss": 6.103, |
|
"step": 34400 |
|
}, |
|
{ |
|
"epoch": 2.7560000000000002, |
|
"grad_norm": 0.06404279917478561, |
|
"learning_rate": 4.081333333333333e-05, |
|
"loss": 6.1071, |
|
"step": 34450 |
|
}, |
|
{ |
|
"epoch": 2.76, |
|
"grad_norm": 0.1886167824268341, |
|
"learning_rate": 4.0146666666666666e-05, |
|
"loss": 6.067, |
|
"step": 34500 |
|
}, |
|
{ |
|
"epoch": 2.7640000000000002, |
|
"grad_norm": 0.07165507972240448, |
|
"learning_rate": 3.948e-05, |
|
"loss": 6.0719, |
|
"step": 34550 |
|
}, |
|
{ |
|
"epoch": 2.768, |
|
"grad_norm": 0.17293329536914825, |
|
"learning_rate": 3.881333333333333e-05, |
|
"loss": 6.0809, |
|
"step": 34600 |
|
}, |
|
{ |
|
"epoch": 2.7720000000000002, |
|
"grad_norm": 0.08776883780956268, |
|
"learning_rate": 3.814666666666667e-05, |
|
"loss": 6.0828, |
|
"step": 34650 |
|
}, |
|
{ |
|
"epoch": 2.776, |
|
"grad_norm": 0.06219394877552986, |
|
"learning_rate": 3.748e-05, |
|
"loss": 6.1143, |
|
"step": 34700 |
|
}, |
|
{ |
|
"epoch": 2.7800000000000002, |
|
"grad_norm": 0.08292591571807861, |
|
"learning_rate": 3.6813333333333335e-05, |
|
"loss": 6.1062, |
|
"step": 34750 |
|
}, |
|
{ |
|
"epoch": 2.784, |
|
"grad_norm": 0.12897174060344696, |
|
"learning_rate": 3.614666666666667e-05, |
|
"loss": 6.0834, |
|
"step": 34800 |
|
}, |
|
{ |
|
"epoch": 2.7880000000000003, |
|
"grad_norm": 0.09318045526742935, |
|
"learning_rate": 3.548e-05, |
|
"loss": 6.0766, |
|
"step": 34850 |
|
}, |
|
{ |
|
"epoch": 2.792, |
|
"grad_norm": 0.07209254801273346, |
|
"learning_rate": 3.4813333333333334e-05, |
|
"loss": 6.0988, |
|
"step": 34900 |
|
}, |
|
{ |
|
"epoch": 2.7960000000000003, |
|
"grad_norm": 0.12821726500988007, |
|
"learning_rate": 3.414666666666667e-05, |
|
"loss": 6.094, |
|
"step": 34950 |
|
}, |
|
{ |
|
"epoch": 2.8, |
|
"grad_norm": 0.08938471227884293, |
|
"learning_rate": 3.3480000000000005e-05, |
|
"loss": 6.1024, |
|
"step": 35000 |
|
}, |
|
{ |
|
"epoch": 2.8040000000000003, |
|
"grad_norm": 0.0786670669913292, |
|
"learning_rate": 3.281333333333333e-05, |
|
"loss": 6.0899, |
|
"step": 35050 |
|
}, |
|
{ |
|
"epoch": 2.808, |
|
"grad_norm": 0.12582920491695404, |
|
"learning_rate": 3.214666666666666e-05, |
|
"loss": 6.1163, |
|
"step": 35100 |
|
}, |
|
{ |
|
"epoch": 2.8120000000000003, |
|
"grad_norm": 0.06805536895990372, |
|
"learning_rate": 3.1480000000000004e-05, |
|
"loss": 6.1177, |
|
"step": 35150 |
|
}, |
|
{ |
|
"epoch": 2.816, |
|
"grad_norm": 0.07569673657417297, |
|
"learning_rate": 3.081333333333334e-05, |
|
"loss": 6.1493, |
|
"step": 35200 |
|
}, |
|
{ |
|
"epoch": 2.82, |
|
"grad_norm": 0.07342411577701569, |
|
"learning_rate": 3.0146666666666667e-05, |
|
"loss": 6.1092, |
|
"step": 35250 |
|
}, |
|
{ |
|
"epoch": 2.824, |
|
"grad_norm": 0.06788337230682373, |
|
"learning_rate": 2.948e-05, |
|
"loss": 6.1203, |
|
"step": 35300 |
|
}, |
|
{ |
|
"epoch": 2.828, |
|
"grad_norm": 0.0648500993847847, |
|
"learning_rate": 2.8813333333333334e-05, |
|
"loss": 6.0812, |
|
"step": 35350 |
|
}, |
|
{ |
|
"epoch": 2.832, |
|
"grad_norm": 0.08181692659854889, |
|
"learning_rate": 2.8146666666666666e-05, |
|
"loss": 6.0981, |
|
"step": 35400 |
|
}, |
|
{ |
|
"epoch": 2.836, |
|
"grad_norm": 0.09622698277235031, |
|
"learning_rate": 2.748e-05, |
|
"loss": 6.1404, |
|
"step": 35450 |
|
}, |
|
{ |
|
"epoch": 2.84, |
|
"grad_norm": 0.06704587489366531, |
|
"learning_rate": 2.6813333333333336e-05, |
|
"loss": 6.0896, |
|
"step": 35500 |
|
}, |
|
{ |
|
"epoch": 2.844, |
|
"grad_norm": 0.07015310227870941, |
|
"learning_rate": 2.6146666666666665e-05, |
|
"loss": 6.0787, |
|
"step": 35550 |
|
}, |
|
{ |
|
"epoch": 2.848, |
|
"grad_norm": 0.06250675767660141, |
|
"learning_rate": 2.548e-05, |
|
"loss": 6.1012, |
|
"step": 35600 |
|
}, |
|
{ |
|
"epoch": 2.852, |
|
"grad_norm": 0.061473552137613297, |
|
"learning_rate": 2.4813333333333335e-05, |
|
"loss": 6.1574, |
|
"step": 35650 |
|
}, |
|
{ |
|
"epoch": 2.856, |
|
"grad_norm": 0.07046835124492645, |
|
"learning_rate": 2.4146666666666667e-05, |
|
"loss": 6.1039, |
|
"step": 35700 |
|
}, |
|
{ |
|
"epoch": 2.86, |
|
"grad_norm": 0.07397124916315079, |
|
"learning_rate": 2.3480000000000002e-05, |
|
"loss": 6.0951, |
|
"step": 35750 |
|
}, |
|
{ |
|
"epoch": 2.864, |
|
"grad_norm": 0.06990958750247955, |
|
"learning_rate": 2.2813333333333334e-05, |
|
"loss": 6.1001, |
|
"step": 35800 |
|
}, |
|
{ |
|
"epoch": 2.868, |
|
"grad_norm": 0.14781086146831512, |
|
"learning_rate": 2.2146666666666666e-05, |
|
"loss": 6.0852, |
|
"step": 35850 |
|
}, |
|
{ |
|
"epoch": 2.872, |
|
"grad_norm": 0.09086581319570541, |
|
"learning_rate": 2.148e-05, |
|
"loss": 6.1311, |
|
"step": 35900 |
|
}, |
|
{ |
|
"epoch": 2.876, |
|
"grad_norm": 0.08399491757154465, |
|
"learning_rate": 2.0813333333333333e-05, |
|
"loss": 6.1073, |
|
"step": 35950 |
|
}, |
|
{ |
|
"epoch": 2.88, |
|
"grad_norm": 0.08457895368337631, |
|
"learning_rate": 2.0146666666666668e-05, |
|
"loss": 6.0934, |
|
"step": 36000 |
|
}, |
|
{ |
|
"epoch": 2.884, |
|
"grad_norm": 0.06923606246709824, |
|
"learning_rate": 1.948e-05, |
|
"loss": 6.0715, |
|
"step": 36050 |
|
}, |
|
{ |
|
"epoch": 2.888, |
|
"grad_norm": 0.0770353376865387, |
|
"learning_rate": 1.8813333333333335e-05, |
|
"loss": 6.0933, |
|
"step": 36100 |
|
}, |
|
{ |
|
"epoch": 2.892, |
|
"grad_norm": 0.08924037218093872, |
|
"learning_rate": 1.8146666666666667e-05, |
|
"loss": 6.0864, |
|
"step": 36150 |
|
}, |
|
{ |
|
"epoch": 2.896, |
|
"grad_norm": 0.08295569568872452, |
|
"learning_rate": 1.748e-05, |
|
"loss": 6.0638, |
|
"step": 36200 |
|
}, |
|
{ |
|
"epoch": 2.9, |
|
"grad_norm": 0.08716677129268646, |
|
"learning_rate": 1.6813333333333334e-05, |
|
"loss": 6.1284, |
|
"step": 36250 |
|
}, |
|
{ |
|
"epoch": 2.904, |
|
"grad_norm": 0.12717968225479126, |
|
"learning_rate": 1.6146666666666666e-05, |
|
"loss": 6.0634, |
|
"step": 36300 |
|
}, |
|
{ |
|
"epoch": 2.908, |
|
"grad_norm": 0.14150169491767883, |
|
"learning_rate": 1.548e-05, |
|
"loss": 6.1062, |
|
"step": 36350 |
|
}, |
|
{ |
|
"epoch": 2.912, |
|
"grad_norm": 0.095510333776474, |
|
"learning_rate": 1.4813333333333333e-05, |
|
"loss": 6.0999, |
|
"step": 36400 |
|
}, |
|
{ |
|
"epoch": 2.916, |
|
"grad_norm": 0.08372308313846588, |
|
"learning_rate": 1.4146666666666668e-05, |
|
"loss": 6.1099, |
|
"step": 36450 |
|
}, |
|
{ |
|
"epoch": 2.92, |
|
"grad_norm": 0.06636666506528854, |
|
"learning_rate": 1.3480000000000001e-05, |
|
"loss": 6.1131, |
|
"step": 36500 |
|
}, |
|
{ |
|
"epoch": 2.924, |
|
"grad_norm": 0.09127132594585419, |
|
"learning_rate": 1.2813333333333333e-05, |
|
"loss": 6.0882, |
|
"step": 36550 |
|
}, |
|
{ |
|
"epoch": 2.928, |
|
"grad_norm": 0.11464403569698334, |
|
"learning_rate": 1.2146666666666667e-05, |
|
"loss": 6.0769, |
|
"step": 36600 |
|
}, |
|
{ |
|
"epoch": 2.932, |
|
"grad_norm": 0.06963608413934708, |
|
"learning_rate": 1.148e-05, |
|
"loss": 6.0958, |
|
"step": 36650 |
|
}, |
|
{ |
|
"epoch": 2.936, |
|
"grad_norm": 0.08850817382335663, |
|
"learning_rate": 1.0813333333333334e-05, |
|
"loss": 6.0707, |
|
"step": 36700 |
|
}, |
|
{ |
|
"epoch": 2.94, |
|
"grad_norm": 0.07375598698854446, |
|
"learning_rate": 1.0146666666666667e-05, |
|
"loss": 6.134, |
|
"step": 36750 |
|
}, |
|
{ |
|
"epoch": 2.944, |
|
"grad_norm": 0.08516935259103775, |
|
"learning_rate": 9.48e-06, |
|
"loss": 6.1216, |
|
"step": 36800 |
|
}, |
|
{ |
|
"epoch": 2.948, |
|
"grad_norm": 0.084303118288517, |
|
"learning_rate": 8.813333333333333e-06, |
|
"loss": 6.1148, |
|
"step": 36850 |
|
}, |
|
{ |
|
"epoch": 2.952, |
|
"grad_norm": 0.12434280663728714, |
|
"learning_rate": 8.146666666666666e-06, |
|
"loss": 6.0726, |
|
"step": 36900 |
|
}, |
|
{ |
|
"epoch": 2.956, |
|
"grad_norm": 0.08239120244979858, |
|
"learning_rate": 7.4799999999999995e-06, |
|
"loss": 6.1008, |
|
"step": 36950 |
|
}, |
|
{ |
|
"epoch": 2.96, |
|
"grad_norm": 0.12123430520296097, |
|
"learning_rate": 6.813333333333334e-06, |
|
"loss": 6.108, |
|
"step": 37000 |
|
}, |
|
{ |
|
"epoch": 2.964, |
|
"grad_norm": 0.15117216110229492, |
|
"learning_rate": 6.1466666666666665e-06, |
|
"loss": 6.1069, |
|
"step": 37050 |
|
}, |
|
{ |
|
"epoch": 2.968, |
|
"grad_norm": 0.05890851095318794, |
|
"learning_rate": 5.48e-06, |
|
"loss": 6.129, |
|
"step": 37100 |
|
}, |
|
{ |
|
"epoch": 2.972, |
|
"grad_norm": 0.0838841125369072, |
|
"learning_rate": 4.8133333333333336e-06, |
|
"loss": 6.1286, |
|
"step": 37150 |
|
}, |
|
{ |
|
"epoch": 2.976, |
|
"grad_norm": 0.11125333607196808, |
|
"learning_rate": 4.146666666666667e-06, |
|
"loss": 6.108, |
|
"step": 37200 |
|
}, |
|
{ |
|
"epoch": 2.98, |
|
"grad_norm": 0.0779728814959526, |
|
"learning_rate": 3.48e-06, |
|
"loss": 6.1046, |
|
"step": 37250 |
|
}, |
|
{ |
|
"epoch": 2.984, |
|
"grad_norm": 0.07073057442903519, |
|
"learning_rate": 2.8133333333333336e-06, |
|
"loss": 6.1383, |
|
"step": 37300 |
|
}, |
|
{ |
|
"epoch": 2.988, |
|
"grad_norm": 0.08153237402439117, |
|
"learning_rate": 2.1466666666666667e-06, |
|
"loss": 6.1381, |
|
"step": 37350 |
|
}, |
|
{ |
|
"epoch": 2.992, |
|
"grad_norm": 0.09573067724704742, |
|
"learning_rate": 1.48e-06, |
|
"loss": 6.111, |
|
"step": 37400 |
|
}, |
|
{ |
|
"epoch": 2.996, |
|
"grad_norm": 0.0864591971039772, |
|
"learning_rate": 8.133333333333333e-07, |
|
"loss": 6.1478, |
|
"step": 37450 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"grad_norm": 0.06814241409301758, |
|
"learning_rate": 1.4666666666666666e-07, |
|
"loss": 6.1176, |
|
"step": 37500 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"eval_bleu": 0.8610222954578596, |
|
"eval_cer": 0.01629510479286783, |
|
"eval_f1": 0.9352486545111312, |
|
"eval_loss": 6.10477352142334, |
|
"eval_meteor": 0.9277142589604939, |
|
"eval_runtime": 536.8624, |
|
"eval_samples_per_second": 9.313, |
|
"eval_steps_per_second": 0.292, |
|
"eval_wer": 0.07572098963732456, |
|
"step": 37500 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"step": 37500, |
|
"total_flos": 6.544751264205373e+17, |
|
"train_loss": 6.123435387369792, |
|
"train_runtime": 6232.44, |
|
"train_samples_per_second": 192.54, |
|
"train_steps_per_second": 6.017 |
|
} |
|
], |
|
"logging_steps": 50, |
|
"max_steps": 37500, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 3, |
|
"save_steps": 500, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": true |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 6.544751264205373e+17, |
|
"train_batch_size": 32, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|