hf_gemma3_4b_9-checkpoint-55000
์ด ๋ชจ๋ธ์ Gemma3 4B ๋ชจ๋ธ์ ํ์ธํ๋ํ ์ฒดํฌํฌ์ธํธ์ ๋๋ค.
๋ชจ๋ธ ์ ๋ณด
- ๋ฒ ์ด์ค ๋ชจ๋ธ: hf_gemma3_4b_9
- ์ฒดํฌํฌ์ธํธ: checkpoint-55000
- ๋ชจ๋ธ ํฌ๊ธฐ: 4B parameters
- ํ์ : Causal Language Model
- ๋ผ์ด์ ์ค: Apache 2.0
์ฌ์ฉ ๋ฐฉ๋ฒ
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "NTIS/hf_gemma3_4b_9-checkpoint-55000"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.float16,
device_map="auto"
)
# ํ
์คํธ ์์ฑ
text = "์๋
ํ์ธ์"
inputs = tokenizer(text, return_tensors="pt")
outputs = model.generate(
**inputs,
max_length=100,
do_sample=True,
temperature=0.7,
pad_token_id=tokenizer.eos_token_id
)
result = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(result)
ํ๋ จ ์ ๋ณด
- ์ด ์ฒดํฌํฌ์ธํธ๋ ํน์ ์คํ ์์ ์ ์ฅ๋ ๋ชจ๋ธ์ ๋๋ค
- ์ฑ๋ฅ์ ์ฒดํฌํฌ์ธํธ๋ง๋ค ๋ค๋ฅผ ์ ์์ต๋๋ค
์ฃผ์์ฌํญ
- ์ด ๋ชจ๋ธ์ ์ฐ๊ตฌ/์คํ ๋ชฉ์ ์ผ๋ก ์ ๊ณต๋ฉ๋๋ค
- ์์ ์ ์ฌ์ฉ ์ ์ ๋ผ์ด์ ์ค๋ฅผ ํ์ธํ์ธ์
- GPU ๋ฉ๋ชจ๋ฆฌ๊ฐ ์ถฉ๋ถํ์ง ํ์ธํ์ธ์ (์ต์ 8GB ๊ถ์ฅ)
- Downloads last month
- 5
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
๐
Ask for provider support