🦋 Qwen2.5-3B-Flutter — Türkçe Flutter Kod Anlama ve Üretme Modeli
🚀 Fine-tuned by NoirZangetsu using Unsloth and 🤗 Hugging Face TRL library.
💡 Amacı: Türkçe yazılmış Flutter soru-cevap verisiyle eğitilmiş, kod üretme ve anlama görevlerinde özelleştirilmiş bir Qwen2.5 3B modeli.
🧠 Model Bilgileri
Özellik | Detay |
---|---|
Model | Qwen2.5-3B (Unsloth optimized, 4-bit) |
Parametre Sayısı | 3.09B |
Eğitim Kitaplığı | Unsloth , Hugging Face Transformers , TRL |
Lisans | Apache 2.0 |
Donanım | GTX 1650 Mobile (4GB VRAM), 16GB RAM |
Eğitim Süresi | ~1.5 saat (QLoRA ile 4-bit hızlı fine-tune) |
Dataset Boyutu | 990 örnek (csv formatında) |
Dataset Türü | Kodlama / Soru-Cevap (Türkçe, Flutter özelinde) |
📚 Kullanılan Veri Seti
Model, Flutter ile ilgili Türkçe yazılmış soru ve cevaplardan oluşan özel bir veri seti ile eğitildi:
Veri Kümesi Adı: flutter_code_with_questions_990.csv
İçerik Özeti:
- Türkçe yazılmış Flutter ile ilgili teknik sorular
- Kod blokları, açıklamalar ve çözüm adımları
- Türk yazılımcılar için lokal bağlamda anlamlı içerikler
📊 Performans Karşılaştırması
Aşağıdaki grafik, modelin 3 farklı metrik üzerinden kıyaslamasını gösterir:
Model | BLEU | ROUGE-L | METEOR |
---|---|---|---|
Qwen2.5-3B-Flutter | 0.06 | 0.14 | 0.14 |
Qwen2.5-Coder-3B-Instruct | 0.01 | 0.09 | 0.05 |
🔍 Yorum:
Flutter'a özel veri ile fine-tune edilen model, özellikle ROUGE-L
ve METEOR
skorlarında ciddi bir iyileşme göstermiştir. Bu da modelin hem semantik benzerliği hem de anlamlı parça üretimi konusunda daha başarılı olduğunu gösteriyor.
🛠️ Kullanım
from transformers import AutoTokenizer, AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained("NoirZangetsu/Qwen2.5-3B-Flutter", device_map="auto")
tokenizer = AutoTokenizer.from_pretrained("NoirZangetsu/Qwen2.5-3B-Flutter")
prompt = "Flutter'da bir StatefulWidget nasıl tanımlanır?"
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=256)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
🧪 Değerlendirme Metodolojisi
Model aşağıdaki metrikler kullanılarak değerlendirildi:
- BLEU: Cümle düzeyinde n-gram eşleşmeleri
- ROUGE-L: En uzun ortak alt dizi üzerinden ölçüm
- METEOR: Levenshtein benzerliği + semantik eşleşmeler
📌 Ekstra Notlar
- Model 4-bit formatta fine-tune edilmiştir. Bellek kullanımı açısından son derece verimlidir.
- Eğitim verisi küçük ama yüksek kaliteli olduğundan, model transfer öğrenme açısından efektif sonuç vermiştir.
- Daha büyük veri setleri ile yeniden fine-tune edilerek çok daha iyi skorlar elde edilebilir.
🧠 Gelecek Planları
- Daha büyük veri setiyle tekrar fine-tune
- Türkçe test benchmark setleriyle karşılaştırmalı analiz
- Web arayüzü üzerinden demo yayını
🤝 Katkıda Bulunmak
Modeli test ettiyseniz, çıktı örneklerini veya önerilerinizi paylaşarak gelişime katkı sunabilirsiniz. 🙌
📤 Citation
@misc{qwen25flutter2025,
title={Qwen2.5-3B-Flutter: Türkçe Flutter Kod Anlama ve Üretme Modeli},
author={NoirZangetsu},
year={2025},
howpublished={\url{https://huggingface.co/NoirZangetsu/Qwen2.5-3B-Flutter}},
}
- Downloads last month
- 62
4-bit