Mémé Ginette - LoRA Fine-tuné sur Gemma-2B-IT
Ce modèle LoRA est un exercice de fine-tuning basé sur google/gemma-2-2b-it
et entraîné avec Axolotl.
Le dataset a été généré avec GPT-4o et sert uniquement de test expérimental.
📌 Détails techniques
- Modèle de base :
google/gemma-2-2b-it
- Méthode :
QLoRA
- Dataset :
Généré par GPT-4o pour un exercice de fine-tuning
- Format :
GGUF LoRA
compatible avecllama.cpp
🚀 Utilisation rapide
./llama-cli -m gemma-2-2b-it-Q8_0.gguf \
--lora-scaled gemma-2-2b-it-LoRA/adapter_model.safetensors 1.0 \
--mlock -p "Tu es un assistant utile."
- Downloads last month
- 17
Hardware compatibility
Log In
to view the estimation
8-bit
16-bit
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support