---
license: apache-2.0
language:
- fr
- en
- es
- it
pipeline_tag: text-generation
tags:
- Vera
- General
- LLM
- AI
- 3.9B
---
#
Vera 2.0 - Instruct
## Description :
**Vera 2.0** est un modèle IA nouvelle génération (3.9B paramètres) optimisé pour performances locales. Successeur de Vera 1.5, il excelle en rédaction, traduction multilingue et analyse de documents longs avec une confidentialité intégrée.
**Améliorations clés :**
- **Contexte étendu (128K tokens)** : Traitement de documents volumineux en une seule requête
- **Précision linguistique renforcée** : Réponses plus nuancées en français, anglais, espagnol et italien
- **Optimisation computationnelle** : Architecture équilibrée pour efficacité accrue
**Caractéristiques clés :**
- **Modèle compact (3.9B paramètres)** : Fonctionne localement sur smartphones et PC
- **Spécialisation confidentialité** : Zero données envoyées aux serveurs
- **Licence** : Apache 2.0 (open source)
- **Applications** : Rédaction pro, traduction, vulgarisation, assistant conversationnel
---
## Téléchargement et utilisation :
### Option 1 : Via Ollama
```bash
ollama run hf.co/Dorian2B/Vera-2.0-GGUF
```
### Option 2 : Téléchargement direct (GGUF)
[Modèle GGUF Quantifié (Q8_0)](https://huggingface.co/Dorian2B/Vera-2.0-GGUF/blob/main/Vera-3.9B-v2-Q8_0.gguf)
### Option 3 : Utilisation avec Python (PyTorch)
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Dorian2B/Vera-2.0"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "Bonjour Vera, comment ça va ?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
```
## Cas d'usage :
- Assistance personnelle hors ligne
- Réponses rapides en français
- Solutions pour appareils à ressources limitées
## Notes :
- Fonctionnement 100% local respectant la vie privée
- Performances optimales sur CPU/GPU (format GGUF)
- Poids du modèle : ~4GB (Q8_0)