---
license: apache-2.0
language:
- fr
- en
- es
- it
- de
pipeline_tag: text-generation
tags:
- Vera
- General
- LLM
- AI
- 3.9B
base_model:
- Dorian2B/Vera-2.0
---
VERA 2.1
INSTRUCT
Intelligence artificielle de nouvelle génération
### **Description :**
**Vera 2.1** est une version optimisée du modèle Vera 2.0, offrant des améliorations en cohérence, support linguistique et stabilité. Avec son architecture de **3,9 milliards de paramètres**, il excelle dans le traitement de longs documents, la programmation et la génération de texte multilingue, tout en garantissant une exécution **100% locale** pour une confidentialité absolue.
### **Améliorations clés :**
- **Cohérence renforcée** sur les contextes longs (**128K tokens**)
- **Support linguistique étendu** avec l’ajout de l’**allemand** (FR, EN, ES, IT, DE)
- **Stabilité d’identité totale** : Plus de confusion avec d'autres modèles IA
- **Optimisation mémoire** : Meilleure gestion de la VRAM pour les longs documents
- **Capacités techniques améliorées** : Analyse de code Python et création littéraire
### **Caractéristiques principales :**
- **Modèle compact & performant** (3,9B paramètres)
- **Traitement local** (PC & smartphones) – **aucune donnée externe**
- **Langues supportées** : Français, Anglais, Espagnol, Italien, **Allemand**
- **Licence** : **Apache 2.0** (open source)
---
## Téléchargement et utilisation :
### Option 1 : Via Ollama
```bash
ollama run hf.co/Dorian2B/Vera-2.1-GGUF
```
### Option 2 : Téléchargement direct (GGUF)
[Modèle GGUF Quantifié (Q8_0)](https://huggingface.co/Dorian2B/Vera-2.1-GGUF/blob/main/Vera-v2.1-q8_0.gguf)
### Option 3 : Utilisation avec Python (PyTorch)
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Dorian2B/Vera-2.1"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "Bonjour Vera, comment ça va ?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
```
## Cas d'usage :
- Assistance personnelle hors ligne
- Réponses rapides en français
- Solutions pour appareils à ressources limitées
## Notes :
- Fonctionnement 100% local respectant la vie privée
- Performances optimales sur CPU/GPU (format GGUF)
- Poids du modèle : ~4GB (Q8_0)