Vera 2.0 - Instruct
Description :
Vera 2.0 est un modèle IA nouvelle génération (3.9B paramètres) optimisé pour performances locales. Successeur de Vera 1.5, il excelle en rédaction, traduction multilingue et analyse de documents longs avec une confidentialité intégrée.
Améliorations clés :
- Contexte étendu (128K tokens) : Traitement de documents volumineux en une seule requête
- Précision linguistique renforcée : Réponses plus nuancées en français, anglais, espagnol et italien
- Optimisation computationnelle : Architecture équilibrée pour efficacité accrue
Caractéristiques clés :
- Modèle compact (3.9B paramètres) : Fonctionne localement sur smartphones et PC
- Spécialisation confidentialité : Zero données envoyées aux serveurs
- Licence : Apache 2.0 (open source)
- Applications : Rédaction pro, traduction, vulgarisation, assistant conversationnel
Téléchargement et utilisation :
Option 1 : Via Ollama
ollama run hf.co/Dorian2B/Vera-2.0-GGUF
Option 2 : Téléchargement direct (GGUF)
Option 3 : Utilisation avec Python (PyTorch)
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Dorian2B/Vera-2.0"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "Bonjour Vera, comment ça va ?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Cas d'usage :
- Assistance personnelle hors ligne
- Réponses rapides en français
- Solutions pour appareils à ressources limitées
Notes :
- Fonctionnement 100% local respectant la vie privée
- Performances optimales sur CPU/GPU (format GGUF)
- Poids du modèle : ~4GB (Q8_0)
- Downloads last month
- 10
Hardware compatibility
Log In
to view the estimation
8-bit
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support