metadata
tags:
- setfit
- sentence-transformers
- text-classification
- generated_from_setfit_trainer
widget:
- text: >-
les lobbying des productions énergétiques carbonées ils ont le droit de
faire leur boulot il y a une différence entre faire son travail et mettre
la société en péril
- text: >-
viande ? la viande c'est surtout les territoires déjà les plus
difficiles je pense que c'est une fierté au-delà des agriculteurs
d'entretenir les territoires difficiles avec l'élevage quand on parle de
haute-savoie quand on parle des pyrénées quand on parle de ces
départements-là heureusement quand même qu'on a l'élevage alors dire
j'entendais dans les accords tout à l'heure qu'on a des pollueurs trop de
vaches trop de gaz à effet de serre de toute façon le cheptel va diminuer
tout seul ils n'ont pas besoin de prendre des mesures c'est déjà fait
avec le nombre d'agriculteurs qui est en train de s'écrouler et que même
nous on ne sait pas comment faire reprendre les objectifs là ils seront
atteints il n'y aura pas de soucis il n'y aura pas besoin de prendre
mesures complémentaires mais quand on veut nous parler de gaz à effet de
serre il faut absolument qu'on mette en face on parle de planification
écologique il y a les accords tout ce qui est importation donc quand on
veut parler bilan carbone et tout il y a ce qu'on fait chez nous est-ce
qu'on importe ?
- text: >-
iques mais on ne peut pas les faire tout seul c'est impossible on est déjà
le continent le plus vert la france est déjà je crois que c'est 1% des
émissions mondiales et on ne peut pas tout seul dans notre coin faire de
l'écologie pendant que les autres que les etats-unis se mettent à fourrer
que la chine ouvre des usines à charbon c'est absolument intenable et je
dois dire d'ailleurs que la première chose à faire pour lutter contre le
réchauffement climatique c'est de relocaliser c'est ce qu'est en train de
faire donald trump aux etats-unis puisqu'il remet la production aux
etats-unis parce que qu'est-ce qui pollue énormément c'est de délocaliser
les usines en chine qui ont fait venir énormément de nos marchandises de
l'autre bout du monde et le paradoxe c'est pour les générations futures
sauf que là
- text: >-
et quelqu'un me dit il n'est pas responsable mais tu plaisantes qui parle
lui ou pas me dit l'interlocuteur qui suit ou une interlocutrice qui suit
notre émission donc voilà mais monsieur le président de la république
écoutez on oublie tout et il vient oui et là on pardonne pardonne ça
qu'est-ce que vous en pensez ? bon le green deal c'est passionnant le
green deal le green deal c'est passionnant parce que j'ai écouté ce matin
vincent trémolet de vidaire l'excellent éditeur réaliste du figaro qui
était également sur europe 1 on a fait encore n'importe quoi c'est-à-dire
que jordan bardella d'ailleurs a demandé la sortie du green deal européen
c'est un truc qui date de 2019 donald tusk qui est le premier ministre
polonais a dit qu'il fallait en sortir on est en train de faire mais sur
tous ces sujets-là au nom de réchauffement climatique en fait on se
suicide on se suicide au nom de l'idéologie toujours la même chose écoutez
vincent trémolet parce que c'est là quand même qu'il y a des
responsabilités ceux qui nous gouvernent font n'importe quoi le green deal
c'est n'importe quoi il faut avoir le courage de le dire c'est n'importe
quoi il y a des conséquences pour les français dramatiques écoutez vincent
trémolet je vous rappelle dimitri qu'après la crise de 2008 le pib de
l'union européenne était équivalent à celui des etats-unis aujourd'hui il
y a 80% d'écart et tout cela avant trump 2 et tout cela avant les
conséquences de certaines mesures du green deal mesures qui vont détruire
l'industrie automobile dévaluer des dizaines de millions de logements
décourager par les excès de normes les initiatives économiques achever nos
agriculteurs donc appauvrir gravement tout le monde aux citoyens européens
on dit que sa voiture pollue que sa maison pollue que son assiette pollue
que son entreprise pollue le sous-texte c'est peut-être que sa présence
pollue ce plan vert n'est pas écologiste il est nihiliste
- text: on appelle ça les écolos allégés vous pouvez expliquer ce que c'est ?
metrics:
- f1
pipeline_tag: text-classification
library_name: setfit
inference: true
base_model: BAAI/bge-small-en-v1.5
model-index:
- name: SetFit with BAAI/bge-small-en-v1.5
results:
- task:
type: text-classification
name: Text Classification
dataset:
name: Unknown
type: unknown
split: test
metrics:
- type: f1
value: 0.8461538461538461
name: F1
SetFit with BAAI/bge-small-en-v1.5
This is a SetFit model that can be used for Text Classification. This SetFit model uses BAAI/bge-small-en-v1.5 as the Sentence Transformer embedding model. A SetFitHead instance is used for classification.
The model has been trained using an efficient few-shot learning technique that involves:
- Fine-tuning a Sentence Transformer with contrastive learning.
- Training a classification head with features from the fine-tuned Sentence Transformer.
Model Details
Model Description
- Model Type: SetFit
- Sentence Transformer body: BAAI/bge-small-en-v1.5
- Classification head: a SetFitHead instance
- Maximum Sequence Length: 512 tokens
- Number of Classes: 2 classes
Model Sources
- Repository: SetFit on GitHub
- Paper: Efficient Few-Shot Learning Without Prompts
- Blogpost: SetFit: Efficient Few-Shot Learning Without Prompts
Model Labels
Label | Examples |
---|---|
1 |
|
0 |
|
Evaluation
Metrics
Label | F1 |
---|---|
all | 0.8462 |
Uses
Direct Use for Inference
First install the SetFit library:
pip install setfit
Then you can load this model and run inference.
from setfit import SetFitModel
# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("setfit_model_id")
# Run inference
preds = model("on appelle ça les écolos allégés vous pouvez expliquer ce que c'est ?")
Training Details
Training Set Metrics
Training set | Min | Median | Max |
---|---|---|---|
Word count | 5 | 167.05 | 364 |
Label | Training Sample Count |
---|---|
0 | 90 |
1 | 90 |
Training Hyperparameters
- batch_size: (4, 4)
- num_epochs: (1, 1)
- max_steps: -1
- sampling_strategy: oversampling
- body_learning_rate: (2e-05, 1e-05)
- head_learning_rate: 0.01
- loss: CosineSimilarityLoss
- distance_metric: cosine_distance
- margin: 0.25
- end_to_end: False
- use_amp: False
- warmup_proportion: 0.1
- l2_weight: 0.01
- seed: 42
- run_name: bge-small-en-v1.5-climateguard03-06-2025_22-15-50
- eval_max_steps: -1
- load_best_model_at_end: True
Training Results
Epoch | Step | Training Loss | Validation Loss |
---|---|---|---|
0.0002 | 1 | 0.1624 | - |
0.0122 | 50 | 0.2896 | 0.2597 |
0.0244 | 100 | 0.2482 | 0.2392 |
0.0366 | 150 | 0.2317 | 0.2181 |
0.0488 | 200 | 0.1971 | 0.1928 |
0.0611 | 250 | 0.175 | 0.1949 |
0.0733 | 300 | 0.1111 | 0.2277 |
0.0855 | 350 | 0.1032 | 0.2424 |
0.0977 | 400 | 0.0695 | 0.2023 |
0.1099 | 450 | 0.0343 | 0.2834 |
0.1221 | 500 | 0.0275 | 0.2061 |
0.1343 | 550 | 0.0165 | 0.1693 |
0.1465 | 600 | 0.0208 | 0.2566 |
0.1587 | 650 | 0.0355 | 0.2636 |
0.1709 | 700 | 0.0099 | 0.1998 |
0.1832 | 750 | 0.002 | 0.1666 |
0.1954 | 800 | 0.001 | 0.2572 |
0.2076 | 850 | 0.0009 | 0.2712 |
0.2198 | 900 | 0.0008 | 0.2725 |
0.2320 | 950 | 0.0008 | 0.2762 |
0.2442 | 1000 | 0.0006 | 0.2751 |
0.2564 | 1050 | 0.0007 | 0.2757 |
0.2686 | 1100 | 0.0006 | 0.2773 |
0.2808 | 1150 | 0.0006 | 0.2775 |
0.2930 | 1200 | 0.0008 | 0.2784 |
0.3053 | 1250 | 0.0005 | 0.2796 |
0.3175 | 1300 | 0.0005 | 0.2817 |
0.3297 | 1350 | 0.0005 | 0.2749 |
0.3419 | 1400 | 0.0005 | 0.2688 |
0.3541 | 1450 | 0.0005 | 0.2819 |
0.3663 | 1500 | 0.0006 | 0.2853 |
0.3785 | 1550 | 0.0005 | 0.2798 |
0.3907 | 1600 | 0.0005 | 0.2392 |
0.4029 | 1650 | 0.0004 | 0.2849 |
0.4151 | 1700 | 0.0004 | 0.2847 |
0.4274 | 1750 | 0.0004 | 0.2882 |
0.4396 | 1800 | 0.0004 | 0.2857 |
0.4518 | 1850 | 0.0004 | 0.2862 |
0.4640 | 1900 | 0.0004 | 0.2854 |
0.4762 | 1950 | 0.0004 | 0.2869 |
0.4884 | 2000 | 0.0004 | 0.2852 |
0.5006 | 2050 | 0.0004 | 0.2852 |
0.5128 | 2100 | 0.0004 | 0.2863 |
0.5250 | 2150 | 0.0004 | 0.2874 |
0.5372 | 2200 | 0.0004 | 0.2870 |
0.5495 | 2250 | 0.0003 | 0.2850 |
0.5617 | 2300 | 0.0003 | 0.2847 |
0.5739 | 2350 | 0.0003 | 0.2837 |
0.5861 | 2400 | 0.0003 | 0.2843 |
0.5983 | 2450 | 0.0004 | 0.2836 |
0.6105 | 2500 | 0.0003 | 0.2868 |
0.6227 | 2550 | 0.0003 | 0.2887 |
0.6349 | 2600 | 0.0003 | 0.2873 |
0.6471 | 2650 | 0.0003 | 0.2876 |
0.6593 | 2700 | 0.0003 | 0.2865 |
0.6716 | 2750 | 0.0003 | 0.2903 |
0.6838 | 2800 | 0.0003 | 0.2882 |
0.6960 | 2850 | 0.0003 | 0.2873 |
0.7082 | 2900 | 0.0003 | 0.2870 |
0.7204 | 2950 | 0.0003 | 0.2873 |
0.7326 | 3000 | 0.0003 | 0.2878 |
0.7448 | 3050 | 0.0003 | 0.2849 |
0.7570 | 3100 | 0.0003 | 0.2855 |
0.7692 | 3150 | 0.0003 | 0.2864 |
0.7814 | 3200 | 0.0003 | 0.2883 |
0.7937 | 3250 | 0.0003 | 0.2883 |
0.8059 | 3300 | 0.0004 | 0.2881 |
0.8181 | 3350 | 0.0003 | 0.2890 |
0.8303 | 3400 | 0.0003 | 0.2886 |
0.8425 | 3450 | 0.0003 | 0.2887 |
0.8547 | 3500 | 0.0003 | 0.2882 |
0.8669 | 3550 | 0.0003 | 0.2881 |
0.8791 | 3600 | 0.0003 | 0.2888 |
0.8913 | 3650 | 0.0002 | 0.2880 |
0.9035 | 3700 | 0.0003 | 0.2884 |
0.9158 | 3750 | 0.0002 | 0.2894 |
0.9280 | 3800 | 0.0003 | 0.2890 |
0.9402 | 3850 | 0.0003 | 0.2891 |
0.9524 | 3900 | 0.0003 | 0.2895 |
0.9646 | 3950 | 0.0003 | 0.2885 |
0.9768 | 4000 | 0.0003 | 0.2887 |
0.9890 | 4050 | 0.0003 | 0.2884 |
Framework Versions
- Python: 3.12.8
- SetFit: 1.1.2
- Sentence Transformers: 4.1.0
- Transformers: 4.52.2
- PyTorch: 2.7.0
- Datasets: 3.6.0
- Tokenizers: 0.21.1
Citation
BibTeX
@article{https://doi.org/10.48550/arxiv.2209.11055,
doi = {10.48550/ARXIV.2209.11055},
url = {https://arxiv.org/abs/2209.11055},
author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
title = {Efficient Few-Shot Learning Without Prompts},
publisher = {arXiv},
year = {2022},
copyright = {Creative Commons Attribution 4.0 International}
}