document_relevance / trainer_state.json
mohmzm's picture
Upload folder using huggingface_hub
172ae41 verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 3.5,
"eval_steps": 10.0,
"global_step": 42,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.08333333333333333,
"grad_norm": 26.380765315815527,
"learning_rate": 6e-06,
"loss": 1.637,
"step": 1
},
{
"epoch": 0.16666666666666666,
"grad_norm": 25.35316617531774,
"learning_rate": 1.2e-05,
"loss": 1.5916,
"step": 2
},
{
"epoch": 0.25,
"grad_norm": 22.382420662552963,
"learning_rate": 1.8e-05,
"loss": 1.6109,
"step": 3
},
{
"epoch": 0.3333333333333333,
"grad_norm": 21.262034892553896,
"learning_rate": 2.4e-05,
"loss": 1.5828,
"step": 4
},
{
"epoch": 0.4166666666666667,
"grad_norm": 16.93878387411178,
"learning_rate": 3e-05,
"loss": 1.4997,
"step": 5
},
{
"epoch": 0.5,
"grad_norm": 12.578579171634221,
"learning_rate": 3.6e-05,
"loss": 1.5073,
"step": 6
},
{
"epoch": 0.5833333333333334,
"grad_norm": 6.833577753108573,
"learning_rate": 4.2e-05,
"loss": 1.437,
"step": 7
},
{
"epoch": 0.6666666666666666,
"grad_norm": 3.4934350691604714,
"learning_rate": 4.8e-05,
"loss": 1.4254,
"step": 8
},
{
"epoch": 0.75,
"grad_norm": 0.959552010155968,
"learning_rate": 5.4000000000000005e-05,
"loss": 1.3326,
"step": 9
},
{
"epoch": 0.8333333333333334,
"grad_norm": 0.8361263714006861,
"learning_rate": 6e-05,
"loss": 1.3304,
"step": 10
},
{
"epoch": 0.9166666666666666,
"grad_norm": 0.7323974839890229,
"learning_rate": 5.8125e-05,
"loss": 1.3278,
"step": 11
},
{
"epoch": 1.0,
"grad_norm": 0.6951027985861574,
"learning_rate": 5.625e-05,
"loss": 1.3108,
"step": 12
},
{
"epoch": 1.0833333333333333,
"grad_norm": 0.57348360237748,
"learning_rate": 5.4375e-05,
"loss": 1.2705,
"step": 13
},
{
"epoch": 1.1666666666666667,
"grad_norm": 0.528694935084245,
"learning_rate": 5.25e-05,
"loss": 1.2375,
"step": 14
},
{
"epoch": 1.25,
"grad_norm": 0.4448790686884711,
"learning_rate": 5.0625000000000004e-05,
"loss": 1.2187,
"step": 15
},
{
"epoch": 1.3333333333333333,
"grad_norm": 0.3580324531801698,
"learning_rate": 4.875e-05,
"loss": 1.2433,
"step": 16
},
{
"epoch": 1.4166666666666667,
"grad_norm": 0.3108073231109972,
"learning_rate": 4.6875e-05,
"loss": 1.2122,
"step": 17
},
{
"epoch": 1.5,
"grad_norm": 0.2921780414179229,
"learning_rate": 4.5e-05,
"loss": 1.1814,
"step": 18
},
{
"epoch": 1.5833333333333335,
"grad_norm": 0.3447262685955944,
"learning_rate": 4.3125e-05,
"loss": 1.1907,
"step": 19
},
{
"epoch": 1.6666666666666665,
"grad_norm": 0.38249020921637505,
"learning_rate": 4.125e-05,
"loss": 1.1853,
"step": 20
},
{
"epoch": 1.75,
"grad_norm": 0.37950262519346134,
"learning_rate": 3.9375e-05,
"loss": 1.1482,
"step": 21
},
{
"epoch": 1.8333333333333335,
"grad_norm": 0.39300483802535985,
"learning_rate": 3.7500000000000003e-05,
"loss": 1.1575,
"step": 22
},
{
"epoch": 1.9166666666666665,
"grad_norm": 0.3601350807382535,
"learning_rate": 3.5625e-05,
"loss": 1.1452,
"step": 23
},
{
"epoch": 2.0,
"grad_norm": 0.28740143349590463,
"learning_rate": 3.375e-05,
"loss": 1.1747,
"step": 24
},
{
"epoch": 2.0833333333333335,
"grad_norm": 0.29344650368854636,
"learning_rate": 3.1875e-05,
"loss": 1.1489,
"step": 25
},
{
"epoch": 2.1666666666666665,
"grad_norm": 0.22921175315092276,
"learning_rate": 3e-05,
"loss": 1.1138,
"step": 26
},
{
"epoch": 2.25,
"grad_norm": 0.23332553896709798,
"learning_rate": 2.8125e-05,
"loss": 1.1333,
"step": 27
},
{
"epoch": 2.3333333333333335,
"grad_norm": 0.23900234635107834,
"learning_rate": 2.625e-05,
"loss": 1.1247,
"step": 28
},
{
"epoch": 2.4166666666666665,
"grad_norm": 0.270889055472087,
"learning_rate": 2.4375e-05,
"loss": 1.1435,
"step": 29
},
{
"epoch": 2.5,
"grad_norm": 0.29217404285890963,
"learning_rate": 2.25e-05,
"loss": 1.139,
"step": 30
},
{
"epoch": 2.5833333333333335,
"grad_norm": 0.2605183698989679,
"learning_rate": 2.0625e-05,
"loss": 1.1524,
"step": 31
},
{
"epoch": 2.6666666666666665,
"grad_norm": 0.23689133070901894,
"learning_rate": 1.8750000000000002e-05,
"loss": 1.1095,
"step": 32
},
{
"epoch": 2.75,
"grad_norm": 0.20391634446781137,
"learning_rate": 1.6875e-05,
"loss": 1.1276,
"step": 33
},
{
"epoch": 2.8333333333333335,
"grad_norm": 0.19818598024841114,
"learning_rate": 1.5e-05,
"loss": 1.1024,
"step": 34
},
{
"epoch": 2.9166666666666665,
"grad_norm": 0.18692842089396786,
"learning_rate": 1.3125e-05,
"loss": 1.1394,
"step": 35
},
{
"epoch": 3.0,
"grad_norm": 0.19253089755959987,
"learning_rate": 1.125e-05,
"loss": 1.1373,
"step": 36
},
{
"epoch": 3.0833333333333335,
"grad_norm": 0.1969018527285566,
"learning_rate": 9.375000000000001e-06,
"loss": 1.1132,
"step": 37
},
{
"epoch": 3.1666666666666665,
"grad_norm": 0.18160128458689978,
"learning_rate": 7.5e-06,
"loss": 1.1295,
"step": 38
},
{
"epoch": 3.25,
"grad_norm": 0.17027573936026272,
"learning_rate": 5.625e-06,
"loss": 1.1269,
"step": 39
},
{
"epoch": 3.3333333333333335,
"grad_norm": 0.17665242361690578,
"learning_rate": 3.75e-06,
"loss": 1.1016,
"step": 40
},
{
"epoch": 3.4166666666666665,
"grad_norm": 0.18783275712862058,
"learning_rate": 1.875e-06,
"loss": 1.1053,
"step": 41
},
{
"epoch": 3.5,
"grad_norm": 0.18290243203179393,
"learning_rate": 0.0,
"loss": 1.1064,
"step": 42
}
],
"logging_steps": 1.0,
"max_steps": 42,
"num_input_tokens_seen": 0,
"num_train_epochs": 4,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 78063178088448.0,
"train_batch_size": 1,
"trial_name": null,
"trial_params": null
}