Mémé Ginette - LoRA Fine-tuné sur Gemma-2B-IT

Ce modèle LoRA est un exercice de fine-tuning basé sur google/gemma-2-2b-it et entraîné avec Axolotl.
Le dataset a été généré avec GPT-4o et sert uniquement de test expérimental.

📌 Détails techniques

  • Modèle de base : google/gemma-2-2b-it
  • Méthode : QLoRA
  • Dataset : Généré par GPT-4o pour un exercice de fine-tuning
  • Format : GGUF LoRA compatible avec llama.cpp

🚀 Utilisation rapide

./llama-cli -m gemma-2-2b-it-Q8_0.gguf \
  --lora-scaled gemma-2-2b-it-LoRA/adapter_model.safetensors 1.0 \
  --mlock -p "Tu es un assistant utile."
Downloads last month
17
GGUF
Model size
20.8M params
Architecture
gemma2
Hardware compatibility
Log In to view the estimation

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Serveurperso/gemma-2-2b-it-LoRA

Base model

google/gemma-2-2b
Adapter
(208)
this model

Spaces using Serveurperso/gemma-2-2b-it-LoRA 2