--- tags: - setfit - sentence-transformers - text-classification - generated_from_setfit_trainer widget: - text: les lobbying des productions énergétiques carbonées ils ont le droit de faire leur boulot il y a une différence entre faire son travail et mettre la société en péril - text: viande ? la viande c'est surtout les territoires déjà les plus difficiles je pense que c'est une fierté au-delà des agriculteurs d'entretenir les territoires difficiles avec l'élevage quand on parle de haute-savoie quand on parle des pyrénées quand on parle de ces départements-là heureusement quand même qu'on a l'élevage alors dire j'entendais dans les accords tout à l'heure qu'on a des pollueurs trop de vaches trop de gaz à effet de serre de toute façon le cheptel va diminuer tout seul ils n'ont pas besoin de prendre des mesures c'est déjà fait avec le nombre d'agriculteurs qui est en train de s'écrouler et que même nous on ne sait pas comment faire reprendre les objectifs là ils seront atteints il n'y aura pas de soucis il n'y aura pas besoin de prendre mesures complémentaires mais quand on veut nous parler de gaz à effet de serre il faut absolument qu'on mette en face on parle de planification écologique il y a les accords tout ce qui est importation donc quand on veut parler bilan carbone et tout il y a ce qu'on fait chez nous est-ce qu'on importe ? - text: iques mais on ne peut pas les faire tout seul c'est impossible on est déjà le continent le plus vert la france est déjà je crois que c'est 1% des émissions mondiales et on ne peut pas tout seul dans notre coin faire de l'écologie pendant que les autres que les etats-unis se mettent à fourrer que la chine ouvre des usines à charbon c'est absolument intenable et je dois dire d'ailleurs que la première chose à faire pour lutter contre le réchauffement climatique c'est de relocaliser c'est ce qu'est en train de faire donald trump aux etats-unis puisqu'il remet la production aux etats-unis parce que qu'est-ce qui pollue énormément c'est de délocaliser les usines en chine qui ont fait venir énormément de nos marchandises de l'autre bout du monde et le paradoxe c'est pour les générations futures sauf que là - text: et quelqu'un me dit il n'est pas responsable mais tu plaisantes qui parle lui ou pas me dit l'interlocuteur qui suit ou une interlocutrice qui suit notre émission donc voilà mais monsieur le président de la république écoutez on oublie tout et il vient oui et là on pardonne pardonne ça qu'est-ce que vous en pensez ? bon le green deal c'est passionnant le green deal le green deal c'est passionnant parce que j'ai écouté ce matin vincent trémolet de vidaire l'excellent éditeur réaliste du figaro qui était également sur europe 1 on a fait encore n'importe quoi c'est-à-dire que jordan bardella d'ailleurs a demandé la sortie du green deal européen c'est un truc qui date de 2019 donald tusk qui est le premier ministre polonais a dit qu'il fallait en sortir on est en train de faire mais sur tous ces sujets-là au nom de réchauffement climatique en fait on se suicide on se suicide au nom de l'idéologie toujours la même chose écoutez vincent trémolet parce que c'est là quand même qu'il y a des responsabilités ceux qui nous gouvernent font n'importe quoi le green deal c'est n'importe quoi il faut avoir le courage de le dire c'est n'importe quoi il y a des conséquences pour les français dramatiques écoutez vincent trémolet je vous rappelle dimitri qu'après la crise de 2008 le pib de l'union européenne était équivalent à celui des etats-unis aujourd'hui il y a 80% d'écart et tout cela avant trump 2 et tout cela avant les conséquences de certaines mesures du green deal mesures qui vont détruire l'industrie automobile dévaluer des dizaines de millions de logements décourager par les excès de normes les initiatives économiques achever nos agriculteurs donc appauvrir gravement tout le monde aux citoyens européens on dit que sa voiture pollue que sa maison pollue que son assiette pollue que son entreprise pollue le sous-texte c'est peut-être que sa présence pollue ce plan vert n'est pas écologiste il est nihiliste - text: on appelle ça les écolos allégés vous pouvez expliquer ce que c'est ? metrics: - f1 pipeline_tag: text-classification library_name: setfit inference: true base_model: BAAI/bge-small-en-v1.5 model-index: - name: SetFit with BAAI/bge-small-en-v1.5 results: - task: type: text-classification name: Text Classification dataset: name: Unknown type: unknown split: test metrics: - type: f1 value: 0.8461538461538461 name: F1 --- # SetFit with BAAI/bge-small-en-v1.5 This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [BAAI/bge-small-en-v1.5](https://huggingface.co/BAAI/bge-small-en-v1.5) as the Sentence Transformer embedding model. A [SetFitHead](huggingface.co/docs/setfit/reference/main#setfit.SetFitHead) instance is used for classification. The model has been trained using an efficient few-shot learning technique that involves: 1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning. 2. Training a classification head with features from the fine-tuned Sentence Transformer. ## Model Details ### Model Description - **Model Type:** SetFit - **Sentence Transformer body:** [BAAI/bge-small-en-v1.5](https://huggingface.co/BAAI/bge-small-en-v1.5) - **Classification head:** a [SetFitHead](huggingface.co/docs/setfit/reference/main#setfit.SetFitHead) instance - **Maximum Sequence Length:** 512 tokens - **Number of Classes:** 2 classes ### Model Sources - **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit) - **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055) - **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit) ### Model Labels | Label | Examples | |:------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| | 1 | | | 0 | | ## Evaluation ### Metrics | Label | F1 | |:--------|:-------| | **all** | 0.8462 | ## Uses ### Direct Use for Inference First install the SetFit library: ```bash pip install setfit ``` Then you can load this model and run inference. ```python from setfit import SetFitModel # Download from the 🤗 Hub model = SetFitModel.from_pretrained("setfit_model_id") # Run inference preds = model("on appelle ça les écolos allégés vous pouvez expliquer ce que c'est ?") ``` ## Training Details ### Training Set Metrics | Training set | Min | Median | Max | |:-------------|:----|:-------|:----| | Word count | 5 | 167.05 | 364 | | Label | Training Sample Count | |:------|:----------------------| | 0 | 90 | | 1 | 90 | ### Training Hyperparameters - batch_size: (4, 4) - num_epochs: (1, 1) - max_steps: -1 - sampling_strategy: oversampling - body_learning_rate: (2e-05, 1e-05) - head_learning_rate: 0.01 - loss: CosineSimilarityLoss - distance_metric: cosine_distance - margin: 0.25 - end_to_end: False - use_amp: False - warmup_proportion: 0.1 - l2_weight: 0.01 - seed: 42 - run_name: bge-small-en-v1.5-climateguard03-06-2025_22-15-50 - eval_max_steps: -1 - load_best_model_at_end: True ### Training Results | Epoch | Step | Training Loss | Validation Loss | |:------:|:----:|:-------------:|:---------------:| | 0.0002 | 1 | 0.1624 | - | | 0.0122 | 50 | 0.2896 | 0.2597 | | 0.0244 | 100 | 0.2482 | 0.2392 | | 0.0366 | 150 | 0.2317 | 0.2181 | | 0.0488 | 200 | 0.1971 | 0.1928 | | 0.0611 | 250 | 0.175 | 0.1949 | | 0.0733 | 300 | 0.1111 | 0.2277 | | 0.0855 | 350 | 0.1032 | 0.2424 | | 0.0977 | 400 | 0.0695 | 0.2023 | | 0.1099 | 450 | 0.0343 | 0.2834 | | 0.1221 | 500 | 0.0275 | 0.2061 | | 0.1343 | 550 | 0.0165 | 0.1693 | | 0.1465 | 600 | 0.0208 | 0.2566 | | 0.1587 | 650 | 0.0355 | 0.2636 | | 0.1709 | 700 | 0.0099 | 0.1998 | | 0.1832 | 750 | 0.002 | 0.1666 | | 0.1954 | 800 | 0.001 | 0.2572 | | 0.2076 | 850 | 0.0009 | 0.2712 | | 0.2198 | 900 | 0.0008 | 0.2725 | | 0.2320 | 950 | 0.0008 | 0.2762 | | 0.2442 | 1000 | 0.0006 | 0.2751 | | 0.2564 | 1050 | 0.0007 | 0.2757 | | 0.2686 | 1100 | 0.0006 | 0.2773 | | 0.2808 | 1150 | 0.0006 | 0.2775 | | 0.2930 | 1200 | 0.0008 | 0.2784 | | 0.3053 | 1250 | 0.0005 | 0.2796 | | 0.3175 | 1300 | 0.0005 | 0.2817 | | 0.3297 | 1350 | 0.0005 | 0.2749 | | 0.3419 | 1400 | 0.0005 | 0.2688 | | 0.3541 | 1450 | 0.0005 | 0.2819 | | 0.3663 | 1500 | 0.0006 | 0.2853 | | 0.3785 | 1550 | 0.0005 | 0.2798 | | 0.3907 | 1600 | 0.0005 | 0.2392 | | 0.4029 | 1650 | 0.0004 | 0.2849 | | 0.4151 | 1700 | 0.0004 | 0.2847 | | 0.4274 | 1750 | 0.0004 | 0.2882 | | 0.4396 | 1800 | 0.0004 | 0.2857 | | 0.4518 | 1850 | 0.0004 | 0.2862 | | 0.4640 | 1900 | 0.0004 | 0.2854 | | 0.4762 | 1950 | 0.0004 | 0.2869 | | 0.4884 | 2000 | 0.0004 | 0.2852 | | 0.5006 | 2050 | 0.0004 | 0.2852 | | 0.5128 | 2100 | 0.0004 | 0.2863 | | 0.5250 | 2150 | 0.0004 | 0.2874 | | 0.5372 | 2200 | 0.0004 | 0.2870 | | 0.5495 | 2250 | 0.0003 | 0.2850 | | 0.5617 | 2300 | 0.0003 | 0.2847 | | 0.5739 | 2350 | 0.0003 | 0.2837 | | 0.5861 | 2400 | 0.0003 | 0.2843 | | 0.5983 | 2450 | 0.0004 | 0.2836 | | 0.6105 | 2500 | 0.0003 | 0.2868 | | 0.6227 | 2550 | 0.0003 | 0.2887 | | 0.6349 | 2600 | 0.0003 | 0.2873 | | 0.6471 | 2650 | 0.0003 | 0.2876 | | 0.6593 | 2700 | 0.0003 | 0.2865 | | 0.6716 | 2750 | 0.0003 | 0.2903 | | 0.6838 | 2800 | 0.0003 | 0.2882 | | 0.6960 | 2850 | 0.0003 | 0.2873 | | 0.7082 | 2900 | 0.0003 | 0.2870 | | 0.7204 | 2950 | 0.0003 | 0.2873 | | 0.7326 | 3000 | 0.0003 | 0.2878 | | 0.7448 | 3050 | 0.0003 | 0.2849 | | 0.7570 | 3100 | 0.0003 | 0.2855 | | 0.7692 | 3150 | 0.0003 | 0.2864 | | 0.7814 | 3200 | 0.0003 | 0.2883 | | 0.7937 | 3250 | 0.0003 | 0.2883 | | 0.8059 | 3300 | 0.0004 | 0.2881 | | 0.8181 | 3350 | 0.0003 | 0.2890 | | 0.8303 | 3400 | 0.0003 | 0.2886 | | 0.8425 | 3450 | 0.0003 | 0.2887 | | 0.8547 | 3500 | 0.0003 | 0.2882 | | 0.8669 | 3550 | 0.0003 | 0.2881 | | 0.8791 | 3600 | 0.0003 | 0.2888 | | 0.8913 | 3650 | 0.0002 | 0.2880 | | 0.9035 | 3700 | 0.0003 | 0.2884 | | 0.9158 | 3750 | 0.0002 | 0.2894 | | 0.9280 | 3800 | 0.0003 | 0.2890 | | 0.9402 | 3850 | 0.0003 | 0.2891 | | 0.9524 | 3900 | 0.0003 | 0.2895 | | 0.9646 | 3950 | 0.0003 | 0.2885 | | 0.9768 | 4000 | 0.0003 | 0.2887 | | 0.9890 | 4050 | 0.0003 | 0.2884 | ### Framework Versions - Python: 3.12.8 - SetFit: 1.1.2 - Sentence Transformers: 4.1.0 - Transformers: 4.52.2 - PyTorch: 2.7.0 - Datasets: 3.6.0 - Tokenizers: 0.21.1 ## Citation ### BibTeX ```bibtex @article{https://doi.org/10.48550/arxiv.2209.11055, doi = {10.48550/ARXIV.2209.11055}, url = {https://arxiv.org/abs/2209.11055}, author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren}, keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences}, title = {Efficient Few-Shot Learning Without Prompts}, publisher = {arXiv}, year = {2022}, copyright = {Creative Commons Attribution 4.0 International} } ```