|
{ |
|
"best_metric": 2.5911147594451904, |
|
"best_model_checkpoint": "clip-desc-br-mixer-200k/checkpoint-12500", |
|
"epoch": 3.0, |
|
"global_step": 18750, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.08, |
|
"learning_rate": 4.866666666666667e-05, |
|
"loss": 1.8641, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"learning_rate": 4.7333333333333336e-05, |
|
"loss": 1.5931, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"learning_rate": 4.600000000000001e-05, |
|
"loss": 1.5302, |
|
"step": 1500 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"learning_rate": 4.466666666666667e-05, |
|
"loss": 1.447, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"learning_rate": 4.3333333333333334e-05, |
|
"loss": 1.3864, |
|
"step": 2500 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"learning_rate": 4.2e-05, |
|
"loss": 1.3548, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"learning_rate": 4.066666666666667e-05, |
|
"loss": 1.3112, |
|
"step": 3500 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"learning_rate": 3.933333333333333e-05, |
|
"loss": 1.2928, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"learning_rate": 3.8e-05, |
|
"loss": 1.2464, |
|
"step": 4500 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"learning_rate": 3.6666666666666666e-05, |
|
"loss": 1.1956, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 0.88, |
|
"learning_rate": 3.5333333333333336e-05, |
|
"loss": 1.1784, |
|
"step": 5500 |
|
}, |
|
{ |
|
"epoch": 0.96, |
|
"learning_rate": 3.4000000000000007e-05, |
|
"loss": 1.1635, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"eval_loss": 2.746802806854248, |
|
"eval_runtime": 268.5972, |
|
"eval_samples_per_second": 74.461, |
|
"eval_steps_per_second": 2.327, |
|
"step": 6250 |
|
}, |
|
{ |
|
"epoch": 1.04, |
|
"learning_rate": 3.266666666666667e-05, |
|
"loss": 1.0209, |
|
"step": 6500 |
|
}, |
|
{ |
|
"epoch": 1.12, |
|
"learning_rate": 3.1333333333333334e-05, |
|
"loss": 0.8686, |
|
"step": 7000 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"learning_rate": 3e-05, |
|
"loss": 0.8853, |
|
"step": 7500 |
|
}, |
|
{ |
|
"epoch": 1.28, |
|
"learning_rate": 2.8666666666666668e-05, |
|
"loss": 0.8609, |
|
"step": 8000 |
|
}, |
|
{ |
|
"epoch": 1.36, |
|
"learning_rate": 2.733333333333333e-05, |
|
"loss": 0.8541, |
|
"step": 8500 |
|
}, |
|
{ |
|
"epoch": 1.44, |
|
"learning_rate": 2.6000000000000002e-05, |
|
"loss": 0.8514, |
|
"step": 9000 |
|
}, |
|
{ |
|
"epoch": 1.52, |
|
"learning_rate": 2.466666666666667e-05, |
|
"loss": 0.812, |
|
"step": 9500 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"learning_rate": 2.3333333333333336e-05, |
|
"loss": 0.8019, |
|
"step": 10000 |
|
}, |
|
{ |
|
"epoch": 1.68, |
|
"learning_rate": 2.2000000000000003e-05, |
|
"loss": 0.8149, |
|
"step": 10500 |
|
}, |
|
{ |
|
"epoch": 1.76, |
|
"learning_rate": 2.0666666666666666e-05, |
|
"loss": 0.7843, |
|
"step": 11000 |
|
}, |
|
{ |
|
"epoch": 1.84, |
|
"learning_rate": 1.9333333333333333e-05, |
|
"loss": 0.7586, |
|
"step": 11500 |
|
}, |
|
{ |
|
"epoch": 1.92, |
|
"learning_rate": 1.8e-05, |
|
"loss": 0.7582, |
|
"step": 12000 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"learning_rate": 1.6666666666666667e-05, |
|
"loss": 0.7554, |
|
"step": 12500 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"eval_loss": 2.5911147594451904, |
|
"eval_runtime": 267.6306, |
|
"eval_samples_per_second": 74.73, |
|
"eval_steps_per_second": 2.335, |
|
"step": 12500 |
|
}, |
|
{ |
|
"epoch": 2.08, |
|
"learning_rate": 1.5333333333333334e-05, |
|
"loss": 0.4678, |
|
"step": 13000 |
|
}, |
|
{ |
|
"epoch": 2.16, |
|
"learning_rate": 1.4000000000000001e-05, |
|
"loss": 0.4461, |
|
"step": 13500 |
|
}, |
|
{ |
|
"epoch": 2.24, |
|
"learning_rate": 1.2666666666666668e-05, |
|
"loss": 0.4411, |
|
"step": 14000 |
|
}, |
|
{ |
|
"epoch": 2.32, |
|
"learning_rate": 1.1333333333333334e-05, |
|
"loss": 0.4278, |
|
"step": 14500 |
|
}, |
|
{ |
|
"epoch": 2.4, |
|
"learning_rate": 1e-05, |
|
"loss": 0.4263, |
|
"step": 15000 |
|
}, |
|
{ |
|
"epoch": 2.48, |
|
"learning_rate": 8.666666666666668e-06, |
|
"loss": 0.415, |
|
"step": 15500 |
|
}, |
|
{ |
|
"epoch": 2.56, |
|
"learning_rate": 7.333333333333334e-06, |
|
"loss": 0.416, |
|
"step": 16000 |
|
}, |
|
{ |
|
"epoch": 2.64, |
|
"learning_rate": 6e-06, |
|
"loss": 0.3941, |
|
"step": 16500 |
|
}, |
|
{ |
|
"epoch": 2.72, |
|
"learning_rate": 4.666666666666667e-06, |
|
"loss": 0.4014, |
|
"step": 17000 |
|
}, |
|
{ |
|
"epoch": 2.8, |
|
"learning_rate": 3.3333333333333333e-06, |
|
"loss": 0.3857, |
|
"step": 17500 |
|
}, |
|
{ |
|
"epoch": 2.88, |
|
"learning_rate": 2.0000000000000003e-06, |
|
"loss": 0.381, |
|
"step": 18000 |
|
}, |
|
{ |
|
"epoch": 2.96, |
|
"learning_rate": 6.666666666666667e-07, |
|
"loss": 0.3824, |
|
"step": 18500 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"eval_loss": 2.730026960372925, |
|
"eval_runtime": 267.9888, |
|
"eval_samples_per_second": 74.63, |
|
"eval_steps_per_second": 2.332, |
|
"step": 18750 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"step": 18750, |
|
"total_flos": 6.02416747008e+16, |
|
"train_loss": 0.8684224430338542, |
|
"train_runtime": 13219.7298, |
|
"train_samples_per_second": 45.387, |
|
"train_steps_per_second": 1.418 |
|
} |
|
], |
|
"max_steps": 18750, |
|
"num_train_epochs": 3, |
|
"total_flos": 6.02416747008e+16, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|