--- license: apache-2.0 language: - fr - en - es - it - de pipeline_tag: text-generation tags: - Vera - General - LLM - AI - 3.9B base_model: - Dorian2B/Vera-2.0 ---
VERA 2.1 INSTRUCT
Intelligence artificielle de nouvelle génération
### **Description :** **Vera 2.1** est une version optimisée du modèle Vera 2.0, offrant des améliorations en cohérence, support linguistique et stabilité. Avec son architecture de **3,9 milliards de paramètres**, il excelle dans le traitement de longs documents, la programmation et la génération de texte multilingue, tout en garantissant une exécution **100% locale** pour une confidentialité absolue. ### **Améliorations clés :** - **Cohérence renforcée** sur les contextes longs (**128K tokens**) - **Support linguistique étendu** avec l’ajout de l’**allemand** (FR, EN, ES, IT, DE) - **Stabilité d’identité totale** : Plus de confusion avec d'autres modèles IA - **Optimisation mémoire** : Meilleure gestion de la VRAM pour les longs documents - **Capacités techniques améliorées** : Analyse de code Python et création littéraire ### **Caractéristiques principales :** - **Modèle compact & performant** (3,9B paramètres) - **Traitement local** (PC & smartphones) – **aucune donnée externe** - **Langues supportées** : Français, Anglais, Espagnol, Italien, **Allemand** - **Licence** : **Apache 2.0** (open source) --- ## Téléchargement et utilisation : ### Option 1 : Via Ollama ```bash ollama run hf.co/Dorian2B/Vera-2.1-GGUF ``` ### Option 2 : Téléchargement direct (GGUF) [Modèle GGUF Quantifié (Q8_0)](https://huggingface.co/Dorian2B/Vera-2.1-GGUF/blob/main/Vera-v2.1-q8_0.gguf) ### Option 3 : Utilisation avec Python (PyTorch) ```python from transformers import AutoModelForCausalLM, AutoTokenizer model_name = "Dorian2B/Vera-2.1" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) input_text = "Bonjour Vera, comment ça va ?" inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**inputs, max_length=100) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ``` ## Cas d'usage : - Assistance personnelle hors ligne - Réponses rapides en français - Solutions pour appareils à ressources limitées ## Notes : - Fonctionnement 100% local respectant la vie privée - Performances optimales sur CPU/GPU (format GGUF) - Poids du modèle : ~4GB (Q8_0)