Model Gemma-3-1B Fine-tuned - Edisi Kota Mangga

Model ini adalah hasil fine-tuning dari unsloth/gemma-3-1b-it menggunakan metode LoRA (Low-Rank Adaptation) dengan dataset spesifik yang berfokus pada pengetahuan lokal (seperti "Kota Mangga" - Indramayu).

Model ini di-train menggunakan Unsloth untuk efisiensi memori dan kecepatan yang signifikan.

Struktur Repository

Repository ini berisi model dalam dua format untuk fleksibilitas penggunaan:

/
β”œβ”€β”€ config.json              # Konfigurasi model merged
β”œβ”€β”€ model.safetensors        # Bobot model merged (16-bit)
β”œβ”€β”€ tokenizer.json           # File tokenizer
β”œβ”€β”€ tokenizer_config.json    # Konfigurasi tokenizer
β”œβ”€β”€ special_tokens_map.json  # Peta token spesial
β”œβ”€β”€ generation_config.json   # Konfigurasi untuk generate teks
└── adapter/                 # Folder berisi adapter LoRA
    β”œβ”€β”€ adapter_config.json
    β”œβ”€β”€ adapter_model.safetensors
    └── ...

Cara Menggunakan

1. Menggunakan Model Merged (Rekomendasi)

Ini adalah cara termudah untuk menggunakan model. Anda akan memuat model yang sudah siap pakai.

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

model_id = "Alamaks/gemma-3-1b-kota-mangga-model"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.float16, # Gunakan float16 untuk efisiensi
    device_map="auto"
)

# Contoh penggunaan
inputs = tokenizer("Siapakah bupati Indramayu saat ini?", return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=50)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

2. Menggunakan Adapter LoRA

Jika Anda ingin menerapkan adapter ke base model secara manual.

from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel
import torch

base_model_id = "unsloth/gemma-3-1b-it"
adapter_id = "Alamaks/gemma-3-1b-kota-mangga-model"

# Muat base model
base_model = AutoModelForCausalLM.from_pretrained(
    base_model_id,
    torch_dtype=torch.float16,
    device_map="auto"
)

# Muat tokenizer dari repo ini (karena mungkin ada token baru)
tokenizer = AutoTokenizer.from_pretrained(adapter_id)

# Terapkan adapter
model = PeftModel.from_pretrained(
    base_model,
    adapter_id,
    subfolder="adapter" # Jangan lupa subfolder
)

# Contoh penggunaan
inputs = tokenizer("Jelaskan tentang julukan Indramayu sebagai Kota Mangga.", return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Detail Model

  • Base Model (Full Precision): unsloth/gemma-3-1b-it
  • Base Model (Training): unsloth/gemma-3-1b-it-unsloth-bnb-4bit (4-bit untuk efisiensi training)
  • Metode: LoRA (Low-Rank Adaptation) via Unsloth
  • Bahasa: Indonesia
  • Presisi Upload: 16-bit (Siap untuk konversi ke GGUF)
  • Pembersihan: Artefak kuantisasi telah dihilangkan untuk menghasilkan model 16-bit yang bersih.

Lisensi

Apache 2.0

Downloads last month
-
Safetensors
Model size
1,000M params
Tensor type
BF16
Β·
Inference Providers NEW
This model isn't deployed by any Inference Provider. πŸ™‹ Ask for provider support

Model tree for Alamaks/gemma-3-1b-kota-mangga-model

Adapter
(8)
this model