metadata
tags:
- setfit
- sentence-transformers
- text-classification
- generated_from_setfit_trainer
widget:
- text: >-
qu'est-ce qu'il va se passer ? je crains qu'il y ait beaucoup de violence
oui je pense que c'est simple c'est soit le chaos soit le sursaut et qu'on
risque d'avoir beaucoup de violence parce qu'on a tout en france pour
redevenir un pays puissant vous le dites vous avez écrit qu'à l'heure où
les etats-unis développent une puce informatique quantique et préparent
les esprits à la conquête de mars nous faisons un conclave sur la retraite
à 72 ans de quoi c'est symptomatique ?
- text: >-
aucune amitié pour le président emmanuel macron mais je trouve
qu'effectivement ça permettrait aussi de débattre des idées c'est utile et
quand on dit oui mais charlie hebdo ne s'embarassez pas des nouvelles oui
mais charlie hebdo mais faisons des caricatures charlie hebdo c'est
charlie hebdo on le prend comme tel mais attendez chaque couverture de
charlie hebdo qui reprend l'emmanuel macron et qui le caricature ça c'est
sain mais c'est charlie hebdo on n'est pas obligé de faire du charlie
hebdo tous les matins en se réveillant ce n'est pas notre boulot pascal
votre parti prix économique tout le monde est d'accord pour dire qu'il
faut décarboner l'économie parce que c'est le carbone qui fait l'effet de
serre je ne sais pas si tout le monde est d'accord mais on l'entend
beaucoup oui c'est vrai et pourtant dans les faits le grand retour du
pétrole c'est ce que vous dites 1150 milliards de dollars vont être
investis cette année en 2025 en général c'est 1000 milliards là on serait
à 1150 milliards de dollars qui seraient investis dans les hydrocarbures
alors ça concerne l'or noir ça concerne le pétrole ça concerne aussi le
gnl le gaz naturel liquéfié qui est très souvent du gaz de schiste un peu
moins émetteur que le pétrole un tout petit peu moins alors oui dans
l'ordre il y a le pire du pire c'est le charbon et puis ensuite il y a le
pétrole le gaz de schiste le gaz naturel etc mais enfin ça reste quand
même des investissements dans des ressources géologiques alors on peut
regretter la situation on peut la condamner mais sans les fossiles je
crois qu'il faut se rendre à l'évidence l'activité du monde telle que nous
la connaissons s'arrête du jour au lendemain c'est-à-dire qu'il n'y a plus
de pétrole il n'y a plus d'essence le monde s'arrête il y aura toujours de
l'électricité etc mais vous voyez bien depuis deux siècles d'ailleurs
c'est ce que dit ce matin
- text: >-
pour le raccordement 1 et 10 de ces éoliennes c'est complètement dément
mais c'est dément donc ce que je veux dire on en a parlé ici j'ai écrit ça
c'est écrit il y a des rapports qui s'empilent on sait ce qu'il faut faire
mais les éoliennes c'est intéressant c'est horrible toute la baie de
lambeau est massacrée et ça va être un scandale ça ne sert absolument à
- text: >-
vous intégrer une forte proportion d'électricité intermittent dans le
réseau il suffit qu'il y ait une faible distorsion entre la production et
la consommation qui peut agir par exemple si vous avez un nuage qui passe
à un moment beaucoup de nuages vous allez avoir une baisse de la
production des panneaux solaires ou si vous n'avez pas de vent et cette
brusque modification de l'électricité d'origine peut créer des
perturbations du système et des fréquences soit à la hausse soit à la
baisse et donc le
- text: >-
on va mettre 37 milliards pour raccorder des éoliennes dont tout le monde
sait que ce n'est pas de la bonne énergie donc non seulement je pense que
c'est différent sur l'éolien en mer et l'éolien terrestre l'éolien en mer
et là ceux qui attaquent parfois qui remettent en cause sont taxés de
populisme c'est pour ça que je vous demandais si vous aviez une définition
précise de populisme je pense qu'encore une fois c'est protéifiant parce
que les populismes ont évolué et on voit bien aujourd'hui en france
d'ailleurs qu'ils continuent à évoluer et que la question c'est aussi le
rapport à l'information le rapport à la vérité le rapport à la science je
pense que ça c'est un enjeu majeur sur la question du populisme par
exemple toutes les questions qu'on a eues par exemple sur la question du
vaccin pendant le covid à un moment mettre en cause une vérité et un fait
scientifique mais quelle vérité madame ? mais quelle vérité puisqu'on nous
a dit que le vaccin ne transmettait pas si on était vacciné on ne
transmettait pas le covid ? et c'est pour ça qu'on se vaccinait ? non
madame tout le monde s'est fait vacciner parce qu'on nous a expliqué que
le vaccin permettait la non-transmission je suis désolé de vous le dire et
notamment les jeunes c'est pour ça qu'on les a vaccinés qu'est-ce qu'on
apprend six mois après ? que le vaccin permettait tout à fait la
transmission que le vaccin a largement limité et que les bénéfices du
vaccin étaient bien supérieurs au fait de ne pas être vacciné pour des
gosses de 15 ans ? oui qui n'allaient jamais dans un hôpital et qui ne
mourraient pas ? vous êtes sérieuse ?
metrics:
- f1
pipeline_tag: text-classification
library_name: setfit
inference: true
base_model: intfloat/multilingual-e5-base
model-index:
- name: SetFit with intfloat/multilingual-e5-base
results:
- task:
type: text-classification
name: Text Classification
dataset:
name: Unknown
type: unknown
split: test
metrics:
- type: f1
value: 0.9130434782608695
name: F1
SetFit with intfloat/multilingual-e5-base
This is a SetFit model that can be used for Text Classification. This SetFit model uses intfloat/multilingual-e5-base as the Sentence Transformer embedding model. A SetFitHead instance is used for classification.
The model has been trained using an efficient few-shot learning technique that involves:
- Fine-tuning a Sentence Transformer with contrastive learning.
- Training a classification head with features from the fine-tuned Sentence Transformer.
Model Details
Model Description
- Model Type: SetFit
- Sentence Transformer body: intfloat/multilingual-e5-base
- Classification head: a SetFitHead instance
- Maximum Sequence Length: 512 tokens
- Number of Classes: 2 classes
Model Sources
- Repository: SetFit on GitHub
- Paper: Efficient Few-Shot Learning Without Prompts
- Blogpost: SetFit: Efficient Few-Shot Learning Without Prompts
Model Labels
Label | Examples |
---|---|
0 |
|
1 |
|
Evaluation
Metrics
Label | F1 |
---|---|
all | 0.9130 |
Uses
Direct Use for Inference
First install the SetFit library:
pip install setfit
Then you can load this model and run inference.
from setfit import SetFitModel
# Download from the 🤗 Hub
model = SetFitModel.from_pretrained("setfit_model_id")
# Run inference
preds = model("pour le raccordement 1 et 10 de ces éoliennes c'est complètement dément mais c'est dément donc ce que je veux dire on en a parlé ici j'ai écrit ça c'est écrit il y a des rapports qui s'empilent on sait ce qu'il faut faire mais les éoliennes c'est intéressant c'est horrible toute la baie de lambeau est massacrée et ça va être un scandale ça ne sert absolument à")
Training Details
Training Set Metrics
Training set | Min | Median | Max |
---|---|---|---|
Word count | 1 | 147.85 | 350 |
Label | Training Sample Count |
---|---|
0 | 30 |
1 | 30 |
Training Hyperparameters
- batch_size: (4, 4)
- num_epochs: (1, 1)
- max_steps: -1
- sampling_strategy: oversampling
- body_learning_rate: (2e-05, 1e-05)
- head_learning_rate: 0.01
- loss: CosineSimilarityLoss
- distance_metric: cosine_distance
- margin: 0.25
- end_to_end: False
- use_amp: False
- warmup_proportion: 0.1
- l2_weight: 0.01
- seed: 42
- run_name: multilingual-e5-base-climateguard04-06-2025_12-18-25
- eval_max_steps: -1
- load_best_model_at_end: True
Training Results
Epoch | Step | Training Loss | Validation Loss |
---|---|---|---|
0.0022 | 1 | 0.0186 | - |
0.1075 | 50 | 0.307 | 0.2088 |
0.2151 | 100 | 0.1707 | 0.2171 |
0.3226 | 150 | 0.0684 | 0.1239 |
0.4301 | 200 | 0.0078 | 0.1960 |
0.5376 | 250 | 0.002 | 0.2222 |
0.6452 | 300 | 0.0386 | 0.2407 |
0.7527 | 350 | 0.0334 | 0.2357 |
0.8602 | 400 | 0.0125 | 0.2068 |
0.9677 | 450 | 0.002 | 0.1875 |
Framework Versions
- Python: 3.12.8
- SetFit: 1.1.2
- Sentence Transformers: 4.1.0
- Transformers: 4.52.2
- PyTorch: 2.7.0
- Datasets: 3.6.0
- Tokenizers: 0.21.1
Citation
BibTeX
@article{https://doi.org/10.48550/arxiv.2209.11055,
doi = {10.48550/ARXIV.2209.11055},
url = {https://arxiv.org/abs/2209.11055},
author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
title = {Efficient Few-Shot Learning Without Prompts},
publisher = {arXiv},
year = {2022},
copyright = {Creative Commons Attribution 4.0 International}
}