ViT5-ner-ghtk-cs-new-data-3090-28may-1

This model is a fine-tuned version of VietAI/vit5-base on the None dataset. It achieves the following results on the evaluation set:

  • Loss: 0.3763
  • cmt: {'precision': 0.6470588235294118, 'recall': 0.7857142857142857, 'f1': 0.7096774193548386, 'number': 14}
  • A: {'precision': 0.9505882352941176, 'recall': 0.9665071770334929, 'f1': 0.9584816132858838, 'number': 418}
  • Gân hàng: {'precision': 0.6829268292682927, 'recall': 0.8, 'f1': 0.736842105263158, 'number': 35}
  • Hương thức thanh toán: {'precision': 0.8214285714285714, 'recall': 0.7666666666666667, 'f1': 0.793103448275862, 'number': 30}
  • Hối lượng: {'precision': 0.2777777777777778, 'recall': 0.4166666666666667, 'f1': 0.33333333333333337, 'number': 12}
  • Iền: {'precision': 0.6037735849056604, 'recall': 0.8205128205128205, 'f1': 0.6956521739130435, 'number': 39}
  • Mail: {'precision': 0.9261904761904762, 'recall': 0.9848101265822785, 'f1': 0.9546012269938651, 'number': 395}
  • Ên người: {'precision': 0.46875, 'recall': 0.5, 'f1': 0.4838709677419355, 'number': 30}
  • Ơn vị đo: {'precision': 0.7894736842105263, 'recall': 0.5357142857142857, 'f1': 0.6382978723404255, 'number': 28}
  • Ản phẩm cụ thể: {'precision': 0.7205882352941176, 'recall': 0.5212765957446809, 'f1': 0.6049382716049383, 'number': 94}
  • Ản phẩm trừu tượng: {'precision': 0.7666666666666667, 'recall': 0.575, 'f1': 0.6571428571428571, 'number': 40}
  • Ịa chỉ cụ thể: {'precision': 0.10666666666666667, 'recall': 0.10666666666666667, 'f1': 0.10666666666666669, 'number': 75}
  • Ịa chỉ trừu tượng: {'precision': 0.625, 'recall': 0.5333333333333333, 'f1': 0.5755395683453237, 'number': 75}
  • Overall Precision: 0.8078
  • Overall Recall: 0.8109
  • Overall F1: 0.8093
  • Overall Accuracy: 0.9748

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 2.5e-05
  • train_batch_size: 16
  • eval_batch_size: 16
  • seed: 42
  • optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
  • lr_scheduler_type: linear
  • num_epochs: 10

Training results

Training Loss Epoch Step Validation Loss cmt A Gân hàng Hương thức thanh toán Hối lượng Iền Mail Ên người Ơn vị đo Ản phẩm cụ thể Ản phẩm trừu tượng Ịa chỉ cụ thể Ịa chỉ trừu tượng Overall Precision Overall Recall Overall F1 Overall Accuracy
No log 1.0 368 0.4111 {'precision': 0.23333333333333334, 'recall': 0.5, 'f1': 0.3181818181818182, 'number': 14} {'precision': 0.9065420560747663, 'recall': 0.9282296650717703, 'f1': 0.91725768321513, 'number': 418} {'precision': 0.32432432432432434, 'recall': 0.34285714285714286, 'f1': 0.33333333333333337, 'number': 35} {'precision': 0.13636363636363635, 'recall': 0.1, 'f1': 0.11538461538461538, 'number': 30} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 12} {'precision': 0.13953488372093023, 'recall': 0.3076923076923077, 'f1': 0.192, 'number': 39} {'precision': 0.8432671081677704, 'recall': 0.9670886075949368, 'f1': 0.9009433962264151, 'number': 395} {'precision': 0.03571428571428571, 'recall': 0.03333333333333333, 'f1': 0.03448275862068965, 'number': 30} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 28} {'precision': 0.6486486486486487, 'recall': 0.2553191489361702, 'f1': 0.366412213740458, 'number': 94} {'precision': 0.4666666666666667, 'recall': 0.175, 'f1': 0.2545454545454546, 'number': 40} {'precision': 0.03571428571428571, 'recall': 0.02666666666666667, 'f1': 0.030534351145038167, 'number': 75} {'precision': 0.6190476190476191, 'recall': 0.52, 'f1': 0.5652173913043478, 'number': 75} 0.6836 0.6825 0.6830 0.9596
1.2603 2.0 736 0.3572 {'precision': 0.2962962962962963, 'recall': 0.5714285714285714, 'f1': 0.3902439024390244, 'number': 14} {'precision': 0.9180327868852459, 'recall': 0.937799043062201, 'f1': 0.927810650887574, 'number': 418} {'precision': 0.5757575757575758, 'recall': 0.5428571428571428, 'f1': 0.5588235294117646, 'number': 35} {'precision': 0.5925925925925926, 'recall': 0.5333333333333333, 'f1': 0.5614035087719299, 'number': 30} {'precision': 0.08695652173913043, 'recall': 0.16666666666666666, 'f1': 0.11428571428571427, 'number': 12} {'precision': 0.2222222222222222, 'recall': 0.15384615384615385, 'f1': 0.18181818181818185, 'number': 39} {'precision': 0.9069212410501193, 'recall': 0.9620253164556962, 'f1': 0.9336609336609337, 'number': 395} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 30} {'precision': 0.875, 'recall': 0.25, 'f1': 0.3888888888888889, 'number': 28} {'precision': 0.6911764705882353, 'recall': 0.5, 'f1': 0.5802469135802469, 'number': 94} {'precision': 0.6666666666666666, 'recall': 0.3, 'f1': 0.41379310344827586, 'number': 40} {'precision': 0.01639344262295082, 'recall': 0.013333333333333334, 'f1': 0.014705882352941178, 'number': 75} {'precision': 0.6607142857142857, 'recall': 0.49333333333333335, 'f1': 0.5648854961832062, 'number': 75} 0.7719 0.7214 0.7458 0.9634
0.2824 3.0 1104 0.3645 {'precision': 0.12, 'recall': 0.21428571428571427, 'f1': 0.15384615384615383, 'number': 14} {'precision': 0.9736842105263158, 'recall': 0.8851674641148325, 'f1': 0.9273182957393484, 'number': 418} {'precision': 0.6774193548387096, 'recall': 0.6, 'f1': 0.6363636363636364, 'number': 35} {'precision': 0.6296296296296297, 'recall': 0.5666666666666667, 'f1': 0.5964912280701755, 'number': 30} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 12} {'precision': 0.3333333333333333, 'recall': 0.4358974358974359, 'f1': 0.37777777777777777, 'number': 39} {'precision': 0.9029126213592233, 'recall': 0.9417721518987342, 'f1': 0.9219330855018587, 'number': 395} {'precision': 0.20588235294117646, 'recall': 0.23333333333333334, 'f1': 0.21874999999999997, 'number': 30} {'precision': 0.6666666666666666, 'recall': 0.14285714285714285, 'f1': 0.23529411764705882, 'number': 28} {'precision': 0.7692307692307693, 'recall': 0.3191489361702128, 'f1': 0.4511278195488722, 'number': 94} {'precision': 0.7647058823529411, 'recall': 0.325, 'f1': 0.456140350877193, 'number': 40} {'precision': 0.045454545454545456, 'recall': 0.04, 'f1': 0.0425531914893617, 'number': 75} {'precision': 0.6444444444444445, 'recall': 0.38666666666666666, 'f1': 0.4833333333333334, 'number': 75} 0.7806 0.6895 0.7322 0.9657
0.2824 4.0 1472 0.2888 {'precision': 0.3684210526315789, 'recall': 0.5, 'f1': 0.4242424242424242, 'number': 14} {'precision': 0.9603960396039604, 'recall': 0.9282296650717703, 'f1': 0.9440389294403893, 'number': 418} {'precision': 0.6136363636363636, 'recall': 0.7714285714285715, 'f1': 0.6835443037974683, 'number': 35} {'precision': 0.8571428571428571, 'recall': 0.8, 'f1': 0.8275862068965518, 'number': 30} {'precision': 0.09523809523809523, 'recall': 0.16666666666666666, 'f1': 0.12121212121212123, 'number': 12} {'precision': 0.48333333333333334, 'recall': 0.7435897435897436, 'f1': 0.5858585858585859, 'number': 39} {'precision': 0.9056603773584906, 'recall': 0.9721518987341772, 'f1': 0.9377289377289376, 'number': 395} {'precision': 0.17647058823529413, 'recall': 0.3, 'f1': 0.22222222222222224, 'number': 30} {'precision': 0.6818181818181818, 'recall': 0.5357142857142857, 'f1': 0.6, 'number': 28} {'precision': 0.6944444444444444, 'recall': 0.5319148936170213, 'f1': 0.6024096385542169, 'number': 94} {'precision': 0.7647058823529411, 'recall': 0.325, 'f1': 0.456140350877193, 'number': 40} {'precision': 0.1111111111111111, 'recall': 0.09333333333333334, 'f1': 0.10144927536231885, 'number': 75} {'precision': 0.6440677966101694, 'recall': 0.5066666666666667, 'f1': 0.5671641791044776, 'number': 75} 0.7734 0.7728 0.7731 0.9690
0.1763 5.0 1840 0.2810 {'precision': 0.4782608695652174, 'recall': 0.7857142857142857, 'f1': 0.5945945945945946, 'number': 14} {'precision': 0.9564164648910412, 'recall': 0.9449760765550239, 'f1': 0.950661853188929, 'number': 418} {'precision': 0.7, 'recall': 0.8, 'f1': 0.7466666666666666, 'number': 35} {'precision': 0.8571428571428571, 'recall': 0.8, 'f1': 0.8275862068965518, 'number': 30} {'precision': 0.09523809523809523, 'recall': 0.16666666666666666, 'f1': 0.12121212121212123, 'number': 12} {'precision': 0.5769230769230769, 'recall': 0.7692307692307693, 'f1': 0.6593406593406593, 'number': 39} {'precision': 0.9065420560747663, 'recall': 0.9822784810126582, 'f1': 0.9428918590522478, 'number': 395} {'precision': 0.2682926829268293, 'recall': 0.36666666666666664, 'f1': 0.30985915492957744, 'number': 30} {'precision': 0.6, 'recall': 0.6428571428571429, 'f1': 0.6206896551724138, 'number': 28} {'precision': 0.7352941176470589, 'recall': 0.5319148936170213, 'f1': 0.617283950617284, 'number': 94} {'precision': 0.76, 'recall': 0.475, 'f1': 0.5846153846153846, 'number': 40} {'precision': 0.0958904109589041, 'recall': 0.09333333333333334, 'f1': 0.0945945945945946, 'number': 75} {'precision': 0.5405405405405406, 'recall': 0.5333333333333333, 'f1': 0.5369127516778522, 'number': 75} 0.7774 0.7961 0.7866 0.9728
0.0984 6.0 2208 0.3361 {'precision': 0.631578947368421, 'recall': 0.8571428571428571, 'f1': 0.7272727272727273, 'number': 14} {'precision': 0.9375, 'recall': 0.9688995215311005, 'f1': 0.9529411764705883, 'number': 418} {'precision': 0.5102040816326531, 'recall': 0.7142857142857143, 'f1': 0.5952380952380952, 'number': 35} {'precision': 0.8571428571428571, 'recall': 0.8, 'f1': 0.8275862068965518, 'number': 30} {'precision': 0.14285714285714285, 'recall': 0.16666666666666666, 'f1': 0.15384615384615383, 'number': 12} {'precision': 0.5357142857142857, 'recall': 0.7692307692307693, 'f1': 0.6315789473684211, 'number': 39} {'precision': 0.9004629629629629, 'recall': 0.9848101265822785, 'f1': 0.9407496977025392, 'number': 395} {'precision': 0.4146341463414634, 'recall': 0.5666666666666667, 'f1': 0.47887323943661975, 'number': 30} {'precision': 0.7777777777777778, 'recall': 0.5, 'f1': 0.6086956521739131, 'number': 28} {'precision': 0.7125, 'recall': 0.6063829787234043, 'f1': 0.6551724137931034, 'number': 94} {'precision': 0.696969696969697, 'recall': 0.575, 'f1': 0.6301369863013698, 'number': 40} {'precision': 0.09333333333333334, 'recall': 0.09333333333333334, 'f1': 0.09333333333333334, 'number': 75} {'precision': 0.6666666666666666, 'recall': 0.5333333333333333, 'f1': 0.5925925925925926, 'number': 75} 0.7816 0.8132 0.7971 0.9738
0.056 7.0 2576 0.3324 {'precision': 0.5789473684210527, 'recall': 0.7857142857142857, 'f1': 0.6666666666666667, 'number': 14} {'precision': 0.9611650485436893, 'recall': 0.9473684210526315, 'f1': 0.9542168674698795, 'number': 418} {'precision': 0.6041666666666666, 'recall': 0.8285714285714286, 'f1': 0.6987951807228916, 'number': 35} {'precision': 0.8888888888888888, 'recall': 0.8, 'f1': 0.8421052631578948, 'number': 30} {'precision': 0.19047619047619047, 'recall': 0.3333333333333333, 'f1': 0.24242424242424246, 'number': 12} {'precision': 0.5686274509803921, 'recall': 0.7435897435897436, 'f1': 0.6444444444444445, 'number': 39} {'precision': 0.9050925925925926, 'recall': 0.9898734177215189, 'f1': 0.9455864570737605, 'number': 395} {'precision': 0.3448275862068966, 'recall': 0.3333333333333333, 'f1': 0.33898305084745767, 'number': 30} {'precision': 0.6956521739130435, 'recall': 0.5714285714285714, 'f1': 0.6274509803921569, 'number': 28} {'precision': 0.7166666666666667, 'recall': 0.4574468085106383, 'f1': 0.5584415584415584, 'number': 94} {'precision': 0.7352941176470589, 'recall': 0.625, 'f1': 0.6756756756756757, 'number': 40} {'precision': 0.075, 'recall': 0.08, 'f1': 0.07741935483870968, 'number': 75} {'precision': 0.5797101449275363, 'recall': 0.5333333333333333, 'f1': 0.5555555555555555, 'number': 75} 0.7847 0.7969 0.7907 0.9739
0.056 8.0 2944 0.3623 {'precision': 0.5, 'recall': 0.6428571428571429, 'f1': 0.5625000000000001, 'number': 14} {'precision': 0.9460093896713615, 'recall': 0.9641148325358851, 'f1': 0.9549763033175356, 'number': 418} {'precision': 0.6410256410256411, 'recall': 0.7142857142857143, 'f1': 0.6756756756756757, 'number': 35} {'precision': 0.8888888888888888, 'recall': 0.8, 'f1': 0.8421052631578948, 'number': 30} {'precision': 0.29411764705882354, 'recall': 0.4166666666666667, 'f1': 0.3448275862068966, 'number': 12} {'precision': 0.6037735849056604, 'recall': 0.8205128205128205, 'f1': 0.6956521739130435, 'number': 39} {'precision': 0.92, 'recall': 0.9898734177215189, 'f1': 0.9536585365853659, 'number': 395} {'precision': 0.34210526315789475, 'recall': 0.43333333333333335, 'f1': 0.3823529411764707, 'number': 30} {'precision': 0.75, 'recall': 0.5357142857142857, 'f1': 0.6250000000000001, 'number': 28} {'precision': 0.6973684210526315, 'recall': 0.5638297872340425, 'f1': 0.6235294117647059, 'number': 94} {'precision': 0.7407407407407407, 'recall': 0.5, 'f1': 0.5970149253731343, 'number': 40} {'precision': 0.10256410256410256, 'recall': 0.10666666666666667, 'f1': 0.10457516339869281, 'number': 75} {'precision': 0.609375, 'recall': 0.52, 'f1': 0.5611510791366907, 'number': 75} 0.7928 0.8070 0.7998 0.9737
0.0392 9.0 3312 0.3576 {'precision': 0.6875, 'recall': 0.7857142857142857, 'f1': 0.7333333333333334, 'number': 14} {'precision': 0.9440559440559441, 'recall': 0.9688995215311005, 'f1': 0.9563164108618654, 'number': 418} {'precision': 0.6904761904761905, 'recall': 0.8285714285714286, 'f1': 0.7532467532467533, 'number': 35} {'precision': 0.8214285714285714, 'recall': 0.7666666666666667, 'f1': 0.793103448275862, 'number': 30} {'precision': 0.2631578947368421, 'recall': 0.4166666666666667, 'f1': 0.3225806451612903, 'number': 12} {'precision': 0.5660377358490566, 'recall': 0.7692307692307693, 'f1': 0.6521739130434783, 'number': 39} {'precision': 0.9261904761904762, 'recall': 0.9848101265822785, 'f1': 0.9546012269938651, 'number': 395} {'precision': 0.45454545454545453, 'recall': 0.5, 'f1': 0.47619047619047616, 'number': 30} {'precision': 0.7894736842105263, 'recall': 0.5357142857142857, 'f1': 0.6382978723404255, 'number': 28} {'precision': 0.72, 'recall': 0.574468085106383, 'f1': 0.6390532544378699, 'number': 94} {'precision': 0.7419354838709677, 'recall': 0.575, 'f1': 0.6478873239436619, 'number': 40} {'precision': 0.0945945945945946, 'recall': 0.09333333333333334, 'f1': 0.09395973154362415, 'number': 75} {'precision': 0.6515151515151515, 'recall': 0.5733333333333334, 'f1': 0.6099290780141844, 'number': 75} 0.8038 0.8163 0.8100 0.9751
0.0281 10.0 3680 0.3763 {'precision': 0.6470588235294118, 'recall': 0.7857142857142857, 'f1': 0.7096774193548386, 'number': 14} {'precision': 0.9505882352941176, 'recall': 0.9665071770334929, 'f1': 0.9584816132858838, 'number': 418} {'precision': 0.6829268292682927, 'recall': 0.8, 'f1': 0.736842105263158, 'number': 35} {'precision': 0.8214285714285714, 'recall': 0.7666666666666667, 'f1': 0.793103448275862, 'number': 30} {'precision': 0.2777777777777778, 'recall': 0.4166666666666667, 'f1': 0.33333333333333337, 'number': 12} {'precision': 0.6037735849056604, 'recall': 0.8205128205128205, 'f1': 0.6956521739130435, 'number': 39} {'precision': 0.9261904761904762, 'recall': 0.9848101265822785, 'f1': 0.9546012269938651, 'number': 395} {'precision': 0.46875, 'recall': 0.5, 'f1': 0.4838709677419355, 'number': 30} {'precision': 0.7894736842105263, 'recall': 0.5357142857142857, 'f1': 0.6382978723404255, 'number': 28} {'precision': 0.7205882352941176, 'recall': 0.5212765957446809, 'f1': 0.6049382716049383, 'number': 94} {'precision': 0.7666666666666667, 'recall': 0.575, 'f1': 0.6571428571428571, 'number': 40} {'precision': 0.10666666666666667, 'recall': 0.10666666666666667, 'f1': 0.10666666666666669, 'number': 75} {'precision': 0.625, 'recall': 0.5333333333333333, 'f1': 0.5755395683453237, 'number': 75} 0.8078 0.8109 0.8093 0.9748

Framework versions

  • Transformers 4.46.3
  • Pytorch 2.5.1+cu124
  • Datasets 3.1.0
  • Tokenizers 0.20.3
Downloads last month
221
Safetensors
Model size
113M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Kudod/ViT5-ner-ghtk-cs-new-data-3090-28may-1

Base model

VietAI/vit5-base
Finetuned
(57)
this model