ViT5-ner-ghtk-cs-new-data-3090-28may-1
This model is a fine-tuned version of VietAI/vit5-base on the None dataset. It achieves the following results on the evaluation set:
- Loss: 0.3763
- cmt: {'precision': 0.6470588235294118, 'recall': 0.7857142857142857, 'f1': 0.7096774193548386, 'number': 14}
- A: {'precision': 0.9505882352941176, 'recall': 0.9665071770334929, 'f1': 0.9584816132858838, 'number': 418}
- Gân hàng: {'precision': 0.6829268292682927, 'recall': 0.8, 'f1': 0.736842105263158, 'number': 35}
- Hương thức thanh toán: {'precision': 0.8214285714285714, 'recall': 0.7666666666666667, 'f1': 0.793103448275862, 'number': 30}
- Hối lượng: {'precision': 0.2777777777777778, 'recall': 0.4166666666666667, 'f1': 0.33333333333333337, 'number': 12}
- Iền: {'precision': 0.6037735849056604, 'recall': 0.8205128205128205, 'f1': 0.6956521739130435, 'number': 39}
- Mail: {'precision': 0.9261904761904762, 'recall': 0.9848101265822785, 'f1': 0.9546012269938651, 'number': 395}
- Ên người: {'precision': 0.46875, 'recall': 0.5, 'f1': 0.4838709677419355, 'number': 30}
- Ơn vị đo: {'precision': 0.7894736842105263, 'recall': 0.5357142857142857, 'f1': 0.6382978723404255, 'number': 28}
- Ản phẩm cụ thể: {'precision': 0.7205882352941176, 'recall': 0.5212765957446809, 'f1': 0.6049382716049383, 'number': 94}
- Ản phẩm trừu tượng: {'precision': 0.7666666666666667, 'recall': 0.575, 'f1': 0.6571428571428571, 'number': 40}
- Ịa chỉ cụ thể: {'precision': 0.10666666666666667, 'recall': 0.10666666666666667, 'f1': 0.10666666666666669, 'number': 75}
- Ịa chỉ trừu tượng: {'precision': 0.625, 'recall': 0.5333333333333333, 'f1': 0.5755395683453237, 'number': 75}
- Overall Precision: 0.8078
- Overall Recall: 0.8109
- Overall F1: 0.8093
- Overall Accuracy: 0.9748
Model description
More information needed
Intended uses & limitations
More information needed
Training and evaluation data
More information needed
Training procedure
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2.5e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- num_epochs: 10
Training results
Training Loss | Epoch | Step | Validation Loss | cmt | A | Gân hàng | Hương thức thanh toán | Hối lượng | Iền | Ên người | Ơn vị đo | Ản phẩm cụ thể | Ản phẩm trừu tượng | Ịa chỉ cụ thể | Ịa chỉ trừu tượng | Overall Precision | Overall Recall | Overall F1 | Overall Accuracy | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
No log | 1.0 | 368 | 0.4111 | {'precision': 0.23333333333333334, 'recall': 0.5, 'f1': 0.3181818181818182, 'number': 14} | {'precision': 0.9065420560747663, 'recall': 0.9282296650717703, 'f1': 0.91725768321513, 'number': 418} | {'precision': 0.32432432432432434, 'recall': 0.34285714285714286, 'f1': 0.33333333333333337, 'number': 35} | {'precision': 0.13636363636363635, 'recall': 0.1, 'f1': 0.11538461538461538, 'number': 30} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 12} | {'precision': 0.13953488372093023, 'recall': 0.3076923076923077, 'f1': 0.192, 'number': 39} | {'precision': 0.8432671081677704, 'recall': 0.9670886075949368, 'f1': 0.9009433962264151, 'number': 395} | {'precision': 0.03571428571428571, 'recall': 0.03333333333333333, 'f1': 0.03448275862068965, 'number': 30} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 28} | {'precision': 0.6486486486486487, 'recall': 0.2553191489361702, 'f1': 0.366412213740458, 'number': 94} | {'precision': 0.4666666666666667, 'recall': 0.175, 'f1': 0.2545454545454546, 'number': 40} | {'precision': 0.03571428571428571, 'recall': 0.02666666666666667, 'f1': 0.030534351145038167, 'number': 75} | {'precision': 0.6190476190476191, 'recall': 0.52, 'f1': 0.5652173913043478, 'number': 75} | 0.6836 | 0.6825 | 0.6830 | 0.9596 |
1.2603 | 2.0 | 736 | 0.3572 | {'precision': 0.2962962962962963, 'recall': 0.5714285714285714, 'f1': 0.3902439024390244, 'number': 14} | {'precision': 0.9180327868852459, 'recall': 0.937799043062201, 'f1': 0.927810650887574, 'number': 418} | {'precision': 0.5757575757575758, 'recall': 0.5428571428571428, 'f1': 0.5588235294117646, 'number': 35} | {'precision': 0.5925925925925926, 'recall': 0.5333333333333333, 'f1': 0.5614035087719299, 'number': 30} | {'precision': 0.08695652173913043, 'recall': 0.16666666666666666, 'f1': 0.11428571428571427, 'number': 12} | {'precision': 0.2222222222222222, 'recall': 0.15384615384615385, 'f1': 0.18181818181818185, 'number': 39} | {'precision': 0.9069212410501193, 'recall': 0.9620253164556962, 'f1': 0.9336609336609337, 'number': 395} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 30} | {'precision': 0.875, 'recall': 0.25, 'f1': 0.3888888888888889, 'number': 28} | {'precision': 0.6911764705882353, 'recall': 0.5, 'f1': 0.5802469135802469, 'number': 94} | {'precision': 0.6666666666666666, 'recall': 0.3, 'f1': 0.41379310344827586, 'number': 40} | {'precision': 0.01639344262295082, 'recall': 0.013333333333333334, 'f1': 0.014705882352941178, 'number': 75} | {'precision': 0.6607142857142857, 'recall': 0.49333333333333335, 'f1': 0.5648854961832062, 'number': 75} | 0.7719 | 0.7214 | 0.7458 | 0.9634 |
0.2824 | 3.0 | 1104 | 0.3645 | {'precision': 0.12, 'recall': 0.21428571428571427, 'f1': 0.15384615384615383, 'number': 14} | {'precision': 0.9736842105263158, 'recall': 0.8851674641148325, 'f1': 0.9273182957393484, 'number': 418} | {'precision': 0.6774193548387096, 'recall': 0.6, 'f1': 0.6363636363636364, 'number': 35} | {'precision': 0.6296296296296297, 'recall': 0.5666666666666667, 'f1': 0.5964912280701755, 'number': 30} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 12} | {'precision': 0.3333333333333333, 'recall': 0.4358974358974359, 'f1': 0.37777777777777777, 'number': 39} | {'precision': 0.9029126213592233, 'recall': 0.9417721518987342, 'f1': 0.9219330855018587, 'number': 395} | {'precision': 0.20588235294117646, 'recall': 0.23333333333333334, 'f1': 0.21874999999999997, 'number': 30} | {'precision': 0.6666666666666666, 'recall': 0.14285714285714285, 'f1': 0.23529411764705882, 'number': 28} | {'precision': 0.7692307692307693, 'recall': 0.3191489361702128, 'f1': 0.4511278195488722, 'number': 94} | {'precision': 0.7647058823529411, 'recall': 0.325, 'f1': 0.456140350877193, 'number': 40} | {'precision': 0.045454545454545456, 'recall': 0.04, 'f1': 0.0425531914893617, 'number': 75} | {'precision': 0.6444444444444445, 'recall': 0.38666666666666666, 'f1': 0.4833333333333334, 'number': 75} | 0.7806 | 0.6895 | 0.7322 | 0.9657 |
0.2824 | 4.0 | 1472 | 0.2888 | {'precision': 0.3684210526315789, 'recall': 0.5, 'f1': 0.4242424242424242, 'number': 14} | {'precision': 0.9603960396039604, 'recall': 0.9282296650717703, 'f1': 0.9440389294403893, 'number': 418} | {'precision': 0.6136363636363636, 'recall': 0.7714285714285715, 'f1': 0.6835443037974683, 'number': 35} | {'precision': 0.8571428571428571, 'recall': 0.8, 'f1': 0.8275862068965518, 'number': 30} | {'precision': 0.09523809523809523, 'recall': 0.16666666666666666, 'f1': 0.12121212121212123, 'number': 12} | {'precision': 0.48333333333333334, 'recall': 0.7435897435897436, 'f1': 0.5858585858585859, 'number': 39} | {'precision': 0.9056603773584906, 'recall': 0.9721518987341772, 'f1': 0.9377289377289376, 'number': 395} | {'precision': 0.17647058823529413, 'recall': 0.3, 'f1': 0.22222222222222224, 'number': 30} | {'precision': 0.6818181818181818, 'recall': 0.5357142857142857, 'f1': 0.6, 'number': 28} | {'precision': 0.6944444444444444, 'recall': 0.5319148936170213, 'f1': 0.6024096385542169, 'number': 94} | {'precision': 0.7647058823529411, 'recall': 0.325, 'f1': 0.456140350877193, 'number': 40} | {'precision': 0.1111111111111111, 'recall': 0.09333333333333334, 'f1': 0.10144927536231885, 'number': 75} | {'precision': 0.6440677966101694, 'recall': 0.5066666666666667, 'f1': 0.5671641791044776, 'number': 75} | 0.7734 | 0.7728 | 0.7731 | 0.9690 |
0.1763 | 5.0 | 1840 | 0.2810 | {'precision': 0.4782608695652174, 'recall': 0.7857142857142857, 'f1': 0.5945945945945946, 'number': 14} | {'precision': 0.9564164648910412, 'recall': 0.9449760765550239, 'f1': 0.950661853188929, 'number': 418} | {'precision': 0.7, 'recall': 0.8, 'f1': 0.7466666666666666, 'number': 35} | {'precision': 0.8571428571428571, 'recall': 0.8, 'f1': 0.8275862068965518, 'number': 30} | {'precision': 0.09523809523809523, 'recall': 0.16666666666666666, 'f1': 0.12121212121212123, 'number': 12} | {'precision': 0.5769230769230769, 'recall': 0.7692307692307693, 'f1': 0.6593406593406593, 'number': 39} | {'precision': 0.9065420560747663, 'recall': 0.9822784810126582, 'f1': 0.9428918590522478, 'number': 395} | {'precision': 0.2682926829268293, 'recall': 0.36666666666666664, 'f1': 0.30985915492957744, 'number': 30} | {'precision': 0.6, 'recall': 0.6428571428571429, 'f1': 0.6206896551724138, 'number': 28} | {'precision': 0.7352941176470589, 'recall': 0.5319148936170213, 'f1': 0.617283950617284, 'number': 94} | {'precision': 0.76, 'recall': 0.475, 'f1': 0.5846153846153846, 'number': 40} | {'precision': 0.0958904109589041, 'recall': 0.09333333333333334, 'f1': 0.0945945945945946, 'number': 75} | {'precision': 0.5405405405405406, 'recall': 0.5333333333333333, 'f1': 0.5369127516778522, 'number': 75} | 0.7774 | 0.7961 | 0.7866 | 0.9728 |
0.0984 | 6.0 | 2208 | 0.3361 | {'precision': 0.631578947368421, 'recall': 0.8571428571428571, 'f1': 0.7272727272727273, 'number': 14} | {'precision': 0.9375, 'recall': 0.9688995215311005, 'f1': 0.9529411764705883, 'number': 418} | {'precision': 0.5102040816326531, 'recall': 0.7142857142857143, 'f1': 0.5952380952380952, 'number': 35} | {'precision': 0.8571428571428571, 'recall': 0.8, 'f1': 0.8275862068965518, 'number': 30} | {'precision': 0.14285714285714285, 'recall': 0.16666666666666666, 'f1': 0.15384615384615383, 'number': 12} | {'precision': 0.5357142857142857, 'recall': 0.7692307692307693, 'f1': 0.6315789473684211, 'number': 39} | {'precision': 0.9004629629629629, 'recall': 0.9848101265822785, 'f1': 0.9407496977025392, 'number': 395} | {'precision': 0.4146341463414634, 'recall': 0.5666666666666667, 'f1': 0.47887323943661975, 'number': 30} | {'precision': 0.7777777777777778, 'recall': 0.5, 'f1': 0.6086956521739131, 'number': 28} | {'precision': 0.7125, 'recall': 0.6063829787234043, 'f1': 0.6551724137931034, 'number': 94} | {'precision': 0.696969696969697, 'recall': 0.575, 'f1': 0.6301369863013698, 'number': 40} | {'precision': 0.09333333333333334, 'recall': 0.09333333333333334, 'f1': 0.09333333333333334, 'number': 75} | {'precision': 0.6666666666666666, 'recall': 0.5333333333333333, 'f1': 0.5925925925925926, 'number': 75} | 0.7816 | 0.8132 | 0.7971 | 0.9738 |
0.056 | 7.0 | 2576 | 0.3324 | {'precision': 0.5789473684210527, 'recall': 0.7857142857142857, 'f1': 0.6666666666666667, 'number': 14} | {'precision': 0.9611650485436893, 'recall': 0.9473684210526315, 'f1': 0.9542168674698795, 'number': 418} | {'precision': 0.6041666666666666, 'recall': 0.8285714285714286, 'f1': 0.6987951807228916, 'number': 35} | {'precision': 0.8888888888888888, 'recall': 0.8, 'f1': 0.8421052631578948, 'number': 30} | {'precision': 0.19047619047619047, 'recall': 0.3333333333333333, 'f1': 0.24242424242424246, 'number': 12} | {'precision': 0.5686274509803921, 'recall': 0.7435897435897436, 'f1': 0.6444444444444445, 'number': 39} | {'precision': 0.9050925925925926, 'recall': 0.9898734177215189, 'f1': 0.9455864570737605, 'number': 395} | {'precision': 0.3448275862068966, 'recall': 0.3333333333333333, 'f1': 0.33898305084745767, 'number': 30} | {'precision': 0.6956521739130435, 'recall': 0.5714285714285714, 'f1': 0.6274509803921569, 'number': 28} | {'precision': 0.7166666666666667, 'recall': 0.4574468085106383, 'f1': 0.5584415584415584, 'number': 94} | {'precision': 0.7352941176470589, 'recall': 0.625, 'f1': 0.6756756756756757, 'number': 40} | {'precision': 0.075, 'recall': 0.08, 'f1': 0.07741935483870968, 'number': 75} | {'precision': 0.5797101449275363, 'recall': 0.5333333333333333, 'f1': 0.5555555555555555, 'number': 75} | 0.7847 | 0.7969 | 0.7907 | 0.9739 |
0.056 | 8.0 | 2944 | 0.3623 | {'precision': 0.5, 'recall': 0.6428571428571429, 'f1': 0.5625000000000001, 'number': 14} | {'precision': 0.9460093896713615, 'recall': 0.9641148325358851, 'f1': 0.9549763033175356, 'number': 418} | {'precision': 0.6410256410256411, 'recall': 0.7142857142857143, 'f1': 0.6756756756756757, 'number': 35} | {'precision': 0.8888888888888888, 'recall': 0.8, 'f1': 0.8421052631578948, 'number': 30} | {'precision': 0.29411764705882354, 'recall': 0.4166666666666667, 'f1': 0.3448275862068966, 'number': 12} | {'precision': 0.6037735849056604, 'recall': 0.8205128205128205, 'f1': 0.6956521739130435, 'number': 39} | {'precision': 0.92, 'recall': 0.9898734177215189, 'f1': 0.9536585365853659, 'number': 395} | {'precision': 0.34210526315789475, 'recall': 0.43333333333333335, 'f1': 0.3823529411764707, 'number': 30} | {'precision': 0.75, 'recall': 0.5357142857142857, 'f1': 0.6250000000000001, 'number': 28} | {'precision': 0.6973684210526315, 'recall': 0.5638297872340425, 'f1': 0.6235294117647059, 'number': 94} | {'precision': 0.7407407407407407, 'recall': 0.5, 'f1': 0.5970149253731343, 'number': 40} | {'precision': 0.10256410256410256, 'recall': 0.10666666666666667, 'f1': 0.10457516339869281, 'number': 75} | {'precision': 0.609375, 'recall': 0.52, 'f1': 0.5611510791366907, 'number': 75} | 0.7928 | 0.8070 | 0.7998 | 0.9737 |
0.0392 | 9.0 | 3312 | 0.3576 | {'precision': 0.6875, 'recall': 0.7857142857142857, 'f1': 0.7333333333333334, 'number': 14} | {'precision': 0.9440559440559441, 'recall': 0.9688995215311005, 'f1': 0.9563164108618654, 'number': 418} | {'precision': 0.6904761904761905, 'recall': 0.8285714285714286, 'f1': 0.7532467532467533, 'number': 35} | {'precision': 0.8214285714285714, 'recall': 0.7666666666666667, 'f1': 0.793103448275862, 'number': 30} | {'precision': 0.2631578947368421, 'recall': 0.4166666666666667, 'f1': 0.3225806451612903, 'number': 12} | {'precision': 0.5660377358490566, 'recall': 0.7692307692307693, 'f1': 0.6521739130434783, 'number': 39} | {'precision': 0.9261904761904762, 'recall': 0.9848101265822785, 'f1': 0.9546012269938651, 'number': 395} | {'precision': 0.45454545454545453, 'recall': 0.5, 'f1': 0.47619047619047616, 'number': 30} | {'precision': 0.7894736842105263, 'recall': 0.5357142857142857, 'f1': 0.6382978723404255, 'number': 28} | {'precision': 0.72, 'recall': 0.574468085106383, 'f1': 0.6390532544378699, 'number': 94} | {'precision': 0.7419354838709677, 'recall': 0.575, 'f1': 0.6478873239436619, 'number': 40} | {'precision': 0.0945945945945946, 'recall': 0.09333333333333334, 'f1': 0.09395973154362415, 'number': 75} | {'precision': 0.6515151515151515, 'recall': 0.5733333333333334, 'f1': 0.6099290780141844, 'number': 75} | 0.8038 | 0.8163 | 0.8100 | 0.9751 |
0.0281 | 10.0 | 3680 | 0.3763 | {'precision': 0.6470588235294118, 'recall': 0.7857142857142857, 'f1': 0.7096774193548386, 'number': 14} | {'precision': 0.9505882352941176, 'recall': 0.9665071770334929, 'f1': 0.9584816132858838, 'number': 418} | {'precision': 0.6829268292682927, 'recall': 0.8, 'f1': 0.736842105263158, 'number': 35} | {'precision': 0.8214285714285714, 'recall': 0.7666666666666667, 'f1': 0.793103448275862, 'number': 30} | {'precision': 0.2777777777777778, 'recall': 0.4166666666666667, 'f1': 0.33333333333333337, 'number': 12} | {'precision': 0.6037735849056604, 'recall': 0.8205128205128205, 'f1': 0.6956521739130435, 'number': 39} | {'precision': 0.9261904761904762, 'recall': 0.9848101265822785, 'f1': 0.9546012269938651, 'number': 395} | {'precision': 0.46875, 'recall': 0.5, 'f1': 0.4838709677419355, 'number': 30} | {'precision': 0.7894736842105263, 'recall': 0.5357142857142857, 'f1': 0.6382978723404255, 'number': 28} | {'precision': 0.7205882352941176, 'recall': 0.5212765957446809, 'f1': 0.6049382716049383, 'number': 94} | {'precision': 0.7666666666666667, 'recall': 0.575, 'f1': 0.6571428571428571, 'number': 40} | {'precision': 0.10666666666666667, 'recall': 0.10666666666666667, 'f1': 0.10666666666666669, 'number': 75} | {'precision': 0.625, 'recall': 0.5333333333333333, 'f1': 0.5755395683453237, 'number': 75} | 0.8078 | 0.8109 | 0.8093 | 0.9748 |
Framework versions
- Transformers 4.46.3
- Pytorch 2.5.1+cu124
- Datasets 3.1.0
- Tokenizers 0.20.3
- Downloads last month
- 221
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
Model tree for Kudod/ViT5-ner-ghtk-cs-new-data-3090-28may-1
Base model
VietAI/vit5-base