Model Gemma-3-1B Fine-tuned - Edisi Kota Mangga
Model ini adalah hasil fine-tuning dari unsloth/gemma-3-1b-it
menggunakan metode LoRA (Low-Rank Adaptation) dengan dataset spesifik yang berfokus pada pengetahuan lokal (seperti "Kota Mangga" - Indramayu).
Model ini di-train menggunakan Unsloth untuk efisiensi memori dan kecepatan yang signifikan.
Struktur Repository
Repository ini berisi model dalam dua format untuk fleksibilitas penggunaan:
/
βββ config.json # Konfigurasi model merged
βββ model.safetensors # Bobot model merged (16-bit)
βββ tokenizer.json # File tokenizer
βββ tokenizer_config.json # Konfigurasi tokenizer
βββ special_tokens_map.json # Peta token spesial
βββ generation_config.json # Konfigurasi untuk generate teks
βββ adapter/ # Folder berisi adapter LoRA
βββ adapter_config.json
βββ adapter_model.safetensors
βββ ...
Cara Menggunakan
1. Menggunakan Model Merged (Rekomendasi)
Ini adalah cara termudah untuk menggunakan model. Anda akan memuat model yang sudah siap pakai.
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model_id = "Alamaks/gemma-3-1b-kota-mangga-model"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.float16, # Gunakan float16 untuk efisiensi
device_map="auto"
)
# Contoh penggunaan
inputs = tokenizer("Siapakah bupati Indramayu saat ini?", return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=50)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
2. Menggunakan Adapter LoRA
Jika Anda ingin menerapkan adapter ke base model secara manual.
from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel
import torch
base_model_id = "unsloth/gemma-3-1b-it"
adapter_id = "Alamaks/gemma-3-1b-kota-mangga-model"
# Muat base model
base_model = AutoModelForCausalLM.from_pretrained(
base_model_id,
torch_dtype=torch.float16,
device_map="auto"
)
# Muat tokenizer dari repo ini (karena mungkin ada token baru)
tokenizer = AutoTokenizer.from_pretrained(adapter_id)
# Terapkan adapter
model = PeftModel.from_pretrained(
base_model,
adapter_id,
subfolder="adapter" # Jangan lupa subfolder
)
# Contoh penggunaan
inputs = tokenizer("Jelaskan tentang julukan Indramayu sebagai Kota Mangga.", return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Detail Model
- Base Model (Full Precision):
unsloth/gemma-3-1b-it
- Base Model (Training):
unsloth/gemma-3-1b-it-unsloth-bnb-4bit
(4-bit untuk efisiensi training) - Metode: LoRA (Low-Rank Adaptation) via Unsloth
- Bahasa: Indonesia
- Presisi Upload: 16-bit (Siap untuk konversi ke GGUF)
- Pembersihan: Artefak kuantisasi telah dihilangkan untuk menghasilkan model 16-bit yang bersih.
Lisensi
Apache 2.0
- Downloads last month
- -
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
π
Ask for provider support