🦋 Qwen2.5-3B-Flutter — Türkçe Flutter Kod Anlama ve Üretme Modeli

🚀 Fine-tuned by NoirZangetsu using Unsloth and 🤗 Hugging Face TRL library.
💡 Amacı: Türkçe yazılmış Flutter soru-cevap verisiyle eğitilmiş, kod üretme ve anlama görevlerinde özelleştirilmiş bir Qwen2.5 3B modeli.


🧠 Model Bilgileri

Özellik Detay
Model Qwen2.5-3B (Unsloth optimized, 4-bit)
Parametre Sayısı 3.09B
Eğitim Kitaplığı Unsloth, Hugging Face Transformers, TRL
Lisans Apache 2.0
Donanım GTX 1650 Mobile (4GB VRAM), 16GB RAM
Eğitim Süresi ~1.5 saat (QLoRA ile 4-bit hızlı fine-tune)
Dataset Boyutu 990 örnek (csv formatında)
Dataset Türü Kodlama / Soru-Cevap (Türkçe, Flutter özelinde)

📚 Kullanılan Veri Seti

Model, Flutter ile ilgili Türkçe yazılmış soru ve cevaplardan oluşan özel bir veri seti ile eğitildi:

Veri Kümesi Adı: flutter_code_with_questions_990.csv
İçerik Özeti:

  • Türkçe yazılmış Flutter ile ilgili teknik sorular
  • Kod blokları, açıklamalar ve çözüm adımları
  • Türk yazılımcılar için lokal bağlamda anlamlı içerikler

📊 Performans Karşılaştırması

Aşağıdaki grafik, modelin 3 farklı metrik üzerinden kıyaslamasını gösterir:

Model BLEU ROUGE-L METEOR
Qwen2.5-3B-Flutter 0.06 0.14 0.14
Qwen2.5-Coder-3B-Instruct 0.01 0.09 0.05

🔍 Yorum:

Flutter'a özel veri ile fine-tune edilen model, özellikle ROUGE-L ve METEOR skorlarında ciddi bir iyileşme göstermiştir. Bu da modelin hem semantik benzerliği hem de anlamlı parça üretimi konusunda daha başarılı olduğunu gösteriyor.


🛠️ Kullanım

from transformers import AutoTokenizer, AutoModelForCausalLM

model = AutoModelForCausalLM.from_pretrained("NoirZangetsu/Qwen2.5-3B-Flutter", device_map="auto")
tokenizer = AutoTokenizer.from_pretrained("NoirZangetsu/Qwen2.5-3B-Flutter")

prompt = "Flutter'da bir StatefulWidget nasıl tanımlanır?"
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=256)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

🧪 Değerlendirme Metodolojisi

Model aşağıdaki metrikler kullanılarak değerlendirildi:

  • BLEU: Cümle düzeyinde n-gram eşleşmeleri
  • ROUGE-L: En uzun ortak alt dizi üzerinden ölçüm
  • METEOR: Levenshtein benzerliği + semantik eşleşmeler

📌 Ekstra Notlar

  • Model 4-bit formatta fine-tune edilmiştir. Bellek kullanımı açısından son derece verimlidir.
  • Eğitim verisi küçük ama yüksek kaliteli olduğundan, model transfer öğrenme açısından efektif sonuç vermiştir.
  • Daha büyük veri setleri ile yeniden fine-tune edilerek çok daha iyi skorlar elde edilebilir.

🧠 Gelecek Planları

  • Daha büyük veri setiyle tekrar fine-tune
  • Türkçe test benchmark setleriyle karşılaştırmalı analiz
  • Web arayüzü üzerinden demo yayını

🤝 Katkıda Bulunmak

Modeli test ettiyseniz, çıktı örneklerini veya önerilerinizi paylaşarak gelişime katkı sunabilirsiniz. 🙌


📤 Citation

@misc{qwen25flutter2025,
  title={Qwen2.5-3B-Flutter: Türkçe Flutter Kod Anlama ve Üretme Modeli},
  author={NoirZangetsu},
  year={2025},
  howpublished={\url{https://huggingface.co/NoirZangetsu/Qwen2.5-3B-Flutter}},
}

Downloads last month
62
GGUF
Model size
3.09B params
Architecture
qwen2
Hardware compatibility
Log In to view the estimation

4-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for NoirZangetsu/Qwen2.5-3B-Flutter

Base model

Qwen/Qwen2.5-3B
Quantized
(78)
this model