---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- dense
- generated_from_trainer
- dataset_size:32608
- loss:MultipleNegativesRankingLoss
base_model: sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2
widget:
- source_sentence: Leslie Groves. Er absolvierte den vierten in seiner Klasse an der
United States Military Academy in West Point im Jahr 1918 und wurde in Auftrag
gegeben, um die US Army Corps of Engineers.
sentences:
- Das US Army Corps of Engineers beauftragte Leslie Groves.
- 1981 veröffentlichte Stevie Nicks das Album "Bella Donna".
- Homeland wurde von Alex Gansa entwickelt.
- source_sentence: Die Kritiker, mit denen ich gesprochen habe, haben jedoch glaubwürdige
Argumente vorgebracht.
sentences:
- Die Argumente der Kritiker schienen überzeugend.
- Mein Mann hasst es, an dem Auto zu arbeiten, aber er würde es lieber selbst tun,
als jemand anderen dafür zu bezahlen.
- Das faschistische Regime wurde von Mussolini gegründet und geleitet.
- source_sentence: Tatsächlich ist Kanha der wohl beste Nationalpark Indiens, um die
Fülle an Wildtieren zu sehen, und sollte nicht verpasst werden.
sentences:
- Sie sollten Kanha sehen, weil es eine Menge Wildtiere gibt.
- Abraham Lincoln debattierte Stephen A. Douglas.
- Wie Sie das Alter Ihres Körpers bestimmen
- source_sentence: Nein, ich bin sicher, du weißt, das ist eine Sache, die du nicht
tust
sentences:
- Du weißt, dass du das nicht tun solltest.
- Louis Tomlinson arbeitete als TV-Extra.
- Zurück in die Zukunft Teil II ist ein Science-Fiction-Film.
- source_sentence: Tamera Mowry. Sie gewann zum ersten Mal Ruhm für ihre jugendliche
Rolle als Tamera Campbell auf der ABC / WB Sitcom Schwester, Schwester ( gegenüber
ihrer identischen Zwillingsschwester Tia Mowry ). Sie und ihre identische Zwillingsschwester
Tia Mowry waren in einer Gesangsgruppe in den frühen 1990er Jahren namens Voices.
Zwillinge sind zwei Nachkommen von der gleichen Schwangerschaft produziert.
sentences:
- Tamera Mowry hat eine weibliche Geschwisterin.
- Kells sagte nicht, dass Shiloh wild sei.
- Paul Wesley trat in Smallville auf.
pipeline_tag: sentence-similarity
library_name: sentence-transformers
---
# SentenceTransformer based on sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2). It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2)
- **Maximum Sequence Length:** 512 tokens
- **Output Dimensionality:** 384 dimensions
- **Similarity Function:** Cosine Similarity
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False, 'architecture': 'BertModel'})
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("Borsa356/deutsch_sentenceSimilarity_mnr3")
# Run inference
sentences = [
'Tamera Mowry. Sie gewann zum ersten Mal Ruhm für ihre jugendliche Rolle als Tamera Campbell auf der ABC / WB Sitcom Schwester, Schwester ( gegenüber ihrer identischen Zwillingsschwester Tia Mowry ). Sie und ihre identische Zwillingsschwester Tia Mowry waren in einer Gesangsgruppe in den frühen 1990er Jahren namens Voices. Zwillinge sind zwei Nachkommen von der gleichen Schwangerschaft produziert.',
'Tamera Mowry hat eine weibliche Geschwisterin.',
'Kells sagte nicht, dass Shiloh wild sei.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[ 1.0000, 0.7997, 0.0009],
# [ 0.7997, 1.0000, 0.0260],
# [ 0.0009, 0.0260, 1.0000]])
```
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 32,608 training samples
* Columns: sentence_0
and sentence_1
* Approximate statistics based on the first 1000 samples:
| | sentence_0 | sentence_1 |
|:--------|:-----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
| type | string | string |
| details |
Ja, die meisten Kinder werden wahrscheinlich einfach tun müssen, was ich getan habe
| Die meisten Kinder werden wahrscheinlich tun, was ich getan habe
|
| Bernie Sanders. Ein selbstbeschriebener demokratischer Sozialist, Sanders ist pro-Arbeit und betont die Umkehrung der wirtschaftlichen Ungleichheit.
| Bernie Sanders ist Pro-Arbeit.
|
| CAGE ist eine Mnemonic aus vier Fragen, Cut Down, Annoyed, Schuldig und Augenöffner.
| Ein Teil von CAGE ist "abgeschnitten".
|
* Loss: [MultipleNegativesRankingLoss
](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `per_device_train_batch_size`: 32
- `per_device_eval_batch_size`: 32
- `num_train_epochs`: 2
- `batch_sampler`: no_duplicates
- `multi_dataset_batch_sampler`: round_robin
#### All Hyperparameters