Vera 1.0 (Nano) - Preview

Votre assistant IA personnel intelligent, conçu pour vous accompagner au quotidien

Apache 2.0 2.6B paramètres 8K contexte FR | EN | IT | ES | PL

🤖 Introduction

Vera 1.0 (Nano) est une version compacte et optimisée de notre assistant IA personnel, conçue pour offrir des performances impressionnantes avec une empreinte légère. Avec 2.6 milliards de paramètres et un contexte de 8K tokens, Vera Nano est idéale pour une utilisation sur des appareils aux ressources plus limitées, tout en conservant une capacité de conversation naturelle et pertinente.

Ce qui rend Vera (Nano) unique, c'est sa capacité à comprendre le contexte de vos demandes et à fournir des réponses personnalisées et pertinentes, même dans un format plus petit. Que vous ayez besoin d'aide pour rédiger un email, comprendre un concept simple, ou simplement discuter de sujets variés, Vera Nano s'adapte naturellement à votre style de communication et à vos préférences.

Le modèle Vera (Nano) est en partie basé sur l'architecture Gemma 2 2B, enrichie d'optimisations spécifiques pour l'assistance personnelle. Vera Nano excelle dans la conversation en français et en anglais, avec un support étendu pour l'italien, l'espagnol et le polonais. Cette polyglottie naturelle fait de Vera Nano un assistant précieux pour une utilisation internationale.

🚀 Caractéristiques techniques

  • Paramètres : 2.6 milliards (légèreté et efficacité)
  • Architecture : Basée sur Gemma 2 2B optimisée (stabilité et compatibilité)
  • Contexte : 8 192 tokens (conversations de longueur moyenne et suivi contextuel)
  • Langues principales : Français, Anglais (expression naturelle et nuancée)
  • Langues secondaires : Italien, Espagnol, Polonais (support international étendu)
  • Formats : SafeTensors, GGUF (flexibilité de déploiement)

La capacité de Vera (Nano) à traiter 8 192 tokens permet de maintenir des conversations cohérentes et de traiter des requêtes de longueur raisonnable sans perdre le fil. Cette fonctionnalité est particulièrement utile pour les interactions quotidiennes et les analyses de texte de taille modérée.

💻 Installation et déploiement

L'intégration de Vera (Nano) dans votre environnement est conçue pour être rapide et efficace. Le modèle est fait pour tourner de manière entièrement hors ligne.

Options de quantization GGUF

Quantization Usage recommandé Mémoire requise Qualité Télécharger
Q8_0 Utilisation optimale ~3-4 GB Maximale Télécharger
Q6_K Usage quotidien ~2.5-3 GB Excellente Télécharger
Q4_K_M Configuration limitée ~2-2.5 GB Très bonne Télécharger

⚙️ Configuration recommandée

Pour une expérience optimale avec Vera (Nano), nous recommandons une configuration matérielle adaptée aux modèles de 2.6 milliards de paramètres :

Matériel optimal

  • RAM système : 8 GB pour une fluidité maximale, 4 GB minimum
  • VRAM GPU : 4-6 GB (GTX 1650, RTX 3050, ou équivalent AMD)
  • Processeur : CPU moderne (Intel i5 ou AMD Ryzen 5)
  • Stockage : 5+ GB d'espace libre sur SSD pour les performances optimales

Paramètres recommandés

  • Température : 0.7 (équilibre optimal entre créativité et cohérence)
  • Top-p : 0.9 pour maintenir la diversité des réponses

⚠️ Limitations actuelles

Points d'amélioration (Version Preview)

Programmation avancée : Vera (Nano) peut assister sur des tâches de programmation de base, mais ses capacités sont limitées pour les algorithmes complexes ou les architectures logicielles avancées.

Domaines ultra-spécialisés : Pour des domaines très techniques (recherche médicale avancée, finance quantitative, ingénierie aérospatiale), Vera (Nano) n'aura pas la même profondeur d'expertise que des modèles plus grands.

Évolutions récentes : Comme tous les modèles IA, Vera (Nano) a une limite temporelle dans ses connaissances des événements les plus récents et des développements technologiques de dernière minute.

Raisonnement mathématique complexe : Bien que capable de résoudre des problèmes mathématiques standards, Vera (Nano) peut montrer des limites sur des démonstrations mathématiques très avancées ou des calculs nécessitant une précision absolue.

Downloads last month
71
GGUF
Model size
2.61B params
Architecture
gemma2
Hardware compatibility
Log In to view the estimation

4-bit

6-bit

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Collection including Dorian2B/Vera-1.0-Nano-Preview-GGUF