SentenceTransformer based on intfloat/multilingual-e5-large

This is a sentence-transformers model finetuned from intfloat/multilingual-e5-large. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: intfloat/multilingual-e5-large
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 1024 dimensions
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False, 'architecture': 'XLMRobertaModel'})
  (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("aimarsg/mle5_all_domains_contrastive")
# Run inference
sentences = [
    'Zein da osasun-arloko profesionalak prestatzeko beken eta laguntzen deialdian eskabideak ebazteko ardura duen organoa?',
    'Osasun sailburuaren 2011ko uztailaren 20ko aginduaren bidez (2011ko abuztuaren 12ko EHAA), osasun-arloko profesionalak prestatzeko beketarako eta laguntzetarako deia egin zen.\nAgindu horren 13. artikuluan ezartzen duenez, Kalitate, Ikerketa eta Berrikuntza Sanitarioko sailburuordeak ebatziko ditu bekak eta laguntzak eskuratzeko eskabideak, EHAAn argitaratutako ebazpen baten bitartez, eta betiere, Osasun eta Kontsumoko sailburuak horretarako berariaz izendatutako Balorazio Batzordeak proposatutakoa aintzat hartuta.\nHori guztia kontuan izanik, deialdira bildutako eskabideak aztertuta, Balorazio Batzordeak proposatutakoa hartu da aintzakotzat, eta, horrenbestez, honako hau\nEBATZI DUT\n:\nLehenengoa. Osasun-arloko profesionalak prestatzeko bekak eta laguntzak honako pertsona hauei ematea (bakoitzari ondoan duen diru-zenbatekoa emango zaio):\nA modalitatea (Atzerriko zentroetan ikastaroak eta egonaldiak egiteko bekak eta laguntzak).\n(Ikus .PDF)\nB modalitatea (Osasunaren arloan ikerketako eta berrikuntzako prestakuntza-planak gauzatzeko bekak eta laguntzak).\n(Ikus .PDF)\nBigarrena. Honako eskatzaile hauei laguntza ukatzea; arrazoiak ere ematen dira:\nA modalitatea:\nCanales Arrasate, Maria Isabel.\nGalnares Cordero, Lorea.\nGómez Coloma, Alexander.\nLago García, Violeta.\nLlano Castresana, Oihane.\nMorales González, M.ª Celia.\nMorales López, Julio Ulises.\nMovilla Fernández, Soraya.\nSanta Maria-Amurrio Alustiza, Lander.\nUrdangarin Zumeta, Nerea.\nB modalitatea:\nAnton Ladislao, Ane.\nAurtenetxe Saez, Olaia.\nUrdampilleta Otegui, Aritz.\nBekak jaso nahi dituzten jarduerak deialdi-aginduko 1. artikuluan diru-laguntzetarako zehaztutako eremuan ez barne-hartuta egoteagatik (atzerrian egingo ez diren ikastaroak eta egonaldiak).\nB modalitatea:\nMaortua Olabe, Hiart.\nInteresunak berak berariaz uko egiteagatik.\nA modalitatea:\nAmo Herrero, Laura.\nOlabarria Larizgoitia, Markel.',
    'Ebazpena Euskal Herriko Agintaritzaren Aldizkarian argitaratuko da, eta, denek jakin dezaten, www.elankidetza.euskadi.net eta www.euskadi.net orrietan argitaratuko da beken esleipendunen zerrenda eta haien',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[1.0000, 0.7207, 0.3766],
#         [0.7207, 1.0000, 0.3225],
#         [0.3766, 0.3225, 1.0000]])

Evaluation

Metrics

Triplet

Metric Value
cosine_accuracy 0.8544

Training Details

Training Dataset

Unnamed Dataset

  • Size: 19,544 training samples
  • Columns: anchor and positive
  • Approximate statistics based on the first 1000 samples:
    anchor positive
    type string string
    details
    • min: 11 tokens
    • mean: 25.03 tokens
    • max: 67 tokens
    • min: 100 tokens
    • mean: 308.39 tokens
    • max: 512 tokens
  • Samples:
    anchor positive
    Nork izendatu du Osakidetzako Teknikari Espezialista sanitarioen lanbide-taldeko lekualdatze-lehiaketa kalifikatuko duen epaimahaia? Osakidetza-Euskal osasun zerbitzuko zuzendari nagusiaren azaroaren 10eko 1401/2017 Ebazpenaren bidez, Teknikari Espezialista sanitarioen lanbide-taldeko lekualdatze-lehiaketa deitu zen. Ebazpena 2017ko azaroaren 28ko EHAAn (227. zenbakia) argitaratu zen.
    Aurreko paragrafoan aipatutako ebazpenaren 7. oinarrian aurreikusitakoaren bat etorriz, Osakidetzako zuzendari nagusiak aipatutako lekualdatze-lehiaketa kalifikatuko duen epaimahaia izendatuko du.
    Horiek guztiak horrela, eta indarrean dagoen legedian pertsonaleko gaietan aitortuta ditudan eskumenez baliatuta, honako hau
    EBAZTEN DUT
    :
    Lehenengoa. Osakidetza-Euskal osasun zerbitzuko zuzendari nagusiaren azaroaren 10eko 1401/2017 Ebazpenaren bidez deitutako Teknikari Espezialista sanitarioen lanbide-taldeko lekualdatze-lehiaketako epaimahai kalifikatzailea izendatzea. Epaimahaia osatuko duten kideak ebazpen honen I. eranskinean jasotzen dira.
    Bigarrena. Ebazpen honek duen egunetik aurrera emango ditu ondorioak.
    Hirugarrena. Ebazpen hau EH...
    Zein urtetan sortu zen UPyD alderdia? [TOPIC: Galdera, Gorka Maneiro Labayen Mistoa-UPyD taldeko legebiltzarkideak lehendakariari egina, euskal unibertsitate publikoan ETAko kideen espediente faltsuak izateari buruz]
    [MANEIRO LABAYEN, (Mixto-UPyD)]:
    nor izango zen–, EHUk unibertsitate-tituluak eman ahal izan zitzan. Kontu honek, hain zuzen, irismen handia du, eta ibilbide luzea izango du, eta guk nahi dugu Legebiltzar honetan ere bidea egin dezan. Beraz, ni neu jarriko naiz harremanetan Legebiltzar honetako talde demokratikoekin ikerketa-batzorde bat abiarazten saiatzeko, zehazki jakin dezagun zer gertatu den EHUn. Albiste oso biribilak izango dituzu laster, sailburu andrea. Erabateko eskandalua da. (Date: 24.04.2015)
    Arrasateko ospitale berrian erresonantzia magnetikoetarako unitate bat irekitzea aurreikusita al dago? [TOPIC: Galdera, Rebeka Ubera Aranzeta EH Bildu taldeko legebiltzarkideak Osasuneko sailburuari egina, Arrasateko ospitalean erresonantzia magnetikoetarako unitatea irekitzeari buruz]
    [UBERA ARANZETA, (EH Bildu)]:
    ospitale berriaren jarduera ez dela behar bestekoa; aktibitatea, errendimendua, jaitsi egin dela. Eta iruditzen zaigu pena dela. Ospitale berri bat daukagu, ikaragarrizko espazioak, probetxu handiagoa atera ahal zaienak, eta ulertezina iruditzen zaigu oraindik ere kamioi bat edukitzea bertan erresonantzia magnetikoak egiteko. Uler genezake trantsizio-fase batean kamioia erabiltzea, baina momentu honetan nahiko ulertezina egiten zaigu, ospitale berria hor daukagunean. Iruditzen zaigu dauden espazioak aprobetxatu daitezkeela unitate bat irekitzeko (Date: 29.05.2015)
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim",
        "gather_across_devices": false
    }
    

Evaluation Dataset

Unnamed Dataset

  • Size: 19,560 evaluation samples
  • Columns: anchor, positive, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor positive negative
    type string string string
    details
    • min: 9 tokens
    • mean: 24.98 tokens
    • max: 69 tokens
    • min: 98 tokens
    • mean: 312.22 tokens
    • max: 512 tokens
    • min: 6 tokens
    • mean: 148.12 tokens
    • max: 512 tokens
  • Samples:
    anchor positive negative
    Zein da LABen iritzia euskal sindikalismoaren egoerari buruz? Erronka handiak direla onartu du LABek, are gehiago munduan inposatzen ari diren «errezeta neoliberal eta autoritarioak» kontuan hartuta, baina, sindikatuaren iritziz, Euskal Herrian bada beste norabidean jotzeko moduko «orube» sindikal, sozial eta politikorik. Aldaketa sozialaren eta burujabetasunaren alde dauden eragileen arteko «euskal agenda sozial partekatua» beharrezkoa dela nabarmendu du, «estatuekiko» autonomoa izango dena.

    30 urte dira lan esparru propioaren aldeko lehe manifestazioa egin zenetik, eta, LABen ustez, gaiak «zentralitate» osoa merezi du oraindik

    Hori bai, jakina da LABen eta ELAren arteko harremanak garai txarrak bizi dituela, ez duela 30 urte bezala. Gauzak hala, LABen ustez, agenda horren osaketan oinarrizko printzipio bat lortu beharko liratekeela uste du, mugimendu feministaren ekimenez zaintzaren inguruan proposatu den herri ekimenarekin eta lan istripuei erantzuteko elkarlanarekin gertatu bezala.

    «Elkarlan sendoago» baten premia

    Agirian, LABek euskal si...
    Azaldu duenez, lan munduan izandako aldaketek sindikalismoaren krisia ekarri dute, eta pitzadurak eragin ditu sindikatuen botere iturrietan.
    Zer neurri hartu ditu Txinako gobernuak Pekingo zarata eta nahasmena murrizteko? Munduko bigarren potentziaren hiriburua aldatzen

    Pekinera iritsi berri diren atzerritarren lehen inpresioa sarritan bera izaten da: kontrastea, kaosa; etxe orratz modernoenak kale batean eta metro gutxi barnerago pisu bakar bateko etxe zahar tradizionalak; Porsche garestienak, eta ondoko kalean bat-batean oilar bat. Herritarrentzat hori ondo dago, baina gobernuak uste du munduko bigarren potentziaren hiriburua garbitzeko ordua iritsi dela, eta azken urteotan zarata eta nahasmen hori guztia ezabatu nahian ari dira.

    Su artifizialen debekua eman diren hamarnaka pausoetako bat besterik ez da. Zerrenda luzea da: kaleak poliziaz bete dituzte eroen moduan gidatzen duten motor elektrikoak kontrolatzeko; kalean inprobisatuta ireki ziren jatetxe eta denda txiki horiek guztiak itxi dituzte, segurtasun neurriak betetzen ez dituzten milaka eraikin bota dituzte.

    Hartu diren erabaki asko garrantzitsuak izan dira bizi kalitatea hobetzeko, baina bide horretan kolore batzuk galdu dira eta urte berria...
    Pekingo gobernuak adierazi du interes tasak murrizteko gaitasuna baduela oraindik, halakorik egitea beharrezkoa balitz.
    Zein da Eusko Jaurlaritzaren jarrera Forondako aireportua bultzatzeari dagokionez? [TOPIC: Galdera, Igor López de Munain Ganuza EH Bildu taldeko legebiltzarkideak Ingurumen eta Lurralde Politikako sailburuari egina, Forondako aireportua bultzatzeari buruz]
    [LÓPEZ DE MUNAIN GANUZA, (EH Bildu)]:
    gain erantzukizuna Madrilena dela eta haiek ez dutela borondaterik? Hemen akordio bat sinatu genuen alderdi politiko guztiok. Zer ari zarete egiten akordio horri dagokionez? Pasatuko zarete hitzetatik ekintzetara? Hartuko duzue Foronda lehentasun gisa, beste helburu batzuk, hala nola abiadura handiko trena eraikitzea, zuen agenda politikotik kanpo utzita? Emango diozue lehentasuna jada existitzen denari, non langileak baitaude jada, non AHTa 2019rako ez eraikitzeagatik galduko genukeena baino askoz gehiago gal (Date: 13.02.2015)
    [TOPIC: Interpelazioa, Rebeka Ubera Aranzeta EH Bildu taldeko legebiltzarkideak Hezkuntzako sailburuari egina, Haurreskolak partzuergoan doakotasunaren bidean 18.000 euro baino gutxiagoko familiei doakotasuna ezartzeari buruz]
    [UBERA ARANZETA, (EH Bildu)]:
    igo duzue (0,7), baina ez zarete iritsi 2012ko inbertsiomailara ere. Ikustea besterik ez dago zer eskaintza egin duzuen: murrizketak, murrizketak eta murrizketak, etengabeak. Aipatu dituzun beste neurri horiek… Begira, bekak aipatu dituzu. Bekak, ez Haurreskolak partzuergoan, bekak ikasmaterialari dagokionez, eta gaur aldarrikatu duzun proposamena EH Bilduk ekarri du. EH Bilduk ekarri du behin eta berriro etxe honetara, eta azkenean lortu dugu zuek onartzea. Zuek ez zarete gai (Date: 11.05.2018)
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim",
        "gather_across_devices": false
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: epoch
  • learning_rate: 2e-05
  • warmup_ratio: 0.1
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: epoch
  • prediction_loss_only: True
  • per_device_train_batch_size: 8
  • per_device_eval_batch_size: 8
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 3
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • parallelism_config: None
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch_fused
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • hub_revision: None
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • liger_kernel_config: None
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional
  • router_mapping: {}
  • learning_rate_mapping: {}

Training Logs

Epoch Step Training Loss Validation Loss multilingual-e5-large_cosine_accuracy
0.0409 100 0.6368 - -
0.0819 200 0.0731 - -
0.1228 300 0.036 - -
0.1637 400 0.0338 - -
0.2047 500 0.0197 - -
0.2456 600 0.0208 - -
0.2865 700 0.0266 - -
0.3275 800 0.035 - -
0.3684 900 0.0306 - -
0.4093 1000 0.046 - -
0.4503 1100 0.0392 - -
0.4912 1200 0.0233 - -
0.5321 1300 0.0273 - -
0.5731 1400 0.0148 - -
0.6140 1500 0.0335 - -
0.6549 1600 0.0162 - -
0.6959 1700 0.0325 - -
0.7368 1800 0.0149 - -
0.7777 1900 0.0144 - -
0.8187 2000 0.0186 - -
0.8596 2100 0.018 - -
0.9005 2200 0.0268 - -
0.9415 2300 0.0114 - -
0.9824 2400 0.0174 - -
1.0 2443 - 0.4571 0.8350
1.0233 2500 0.0111 - -
1.0643 2600 0.0103 - -
1.1052 2700 0.0166 - -
1.1461 2800 0.0058 - -
1.1871 2900 0.0091 - -
1.2280 3000 0.0059 - -
1.2689 3100 0.0129 - -
1.3099 3200 0.0136 - -
1.3508 3300 0.0091 - -
1.3917 3400 0.0129 - -
1.4327 3500 0.0133 - -
1.4736 3600 0.0075 - -
1.5145 3700 0.0105 - -
1.5555 3800 0.01 - -
1.5964 3900 0.0113 - -
1.6373 4000 0.0135 - -
1.6783 4100 0.011 - -
1.7192 4200 0.0116 - -
1.7601 4300 0.0068 - -
1.8011 4400 0.0104 - -
1.8420 4500 0.0055 - -
1.8829 4600 0.0066 - -
1.9239 4700 0.0055 - -
1.9648 4800 0.0103 - -
2.0 4886 - 0.4690 0.8319
2.0057 4900 0.0045 - -
2.0467 5000 0.0061 - -
2.0876 5100 0.0044 - -
2.1285 5200 0.0045 - -
2.1695 5300 0.01 - -
2.2104 5400 0.0046 - -
2.2513 5500 0.0057 - -
2.2923 5600 0.0023 - -
2.3332 5700 0.0069 - -
2.3741 5800 0.0068 - -
2.4151 5900 0.0019 - -
2.4560 6000 0.0124 - -
2.4969 6100 0.0028 - -
2.5379 6200 0.0066 - -
2.5788 6300 0.0038 - -
2.6197 6400 0.0039 - -
2.6607 6500 0.0042 - -
2.7016 6600 0.0029 - -
2.7425 6700 0.0024 - -
2.7835 6800 0.0007 - -
2.8244 6900 0.0011 - -
2.8653 7000 0.0027 - -
2.9063 7100 0.0036 - -
2.9472 7200 0.0019 - -
2.9881 7300 0.005 - -
3.0 7329 - 0.3922 0.8544

Framework Versions

  • Python: 3.10.8
  • Sentence Transformers: 5.1.0
  • Transformers: 4.56.0
  • PyTorch: 2.8.0+cu128
  • Accelerate: 1.10.1
  • Datasets: 4.0.0
  • Tokenizers: 0.22.0

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
10
Safetensors
Model size
560M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for aimarsg/mle5_all_domains_contrastive

Finetuned
(133)
this model

Evaluation results