--- license: apache-2.0 language: - ko - en tags: - text-generation - pytorch - causal-lm - gemma3 - 4b library_name: transformers --- # hf_gemma3_4b_9-checkpoint-63000 이 모델은 Gemma3 4B 모델을 파인튜닝한 체크포인트입니다. ## 모델 정보 - **베이스 모델**: hf_gemma3_4b_9 - **체크포인트**: checkpoint-63000 - **모델 크기**: 4B parameters - **타입**: Causal Language Model - **라이선스**: Apache 2.0 ## 사용 방법 ```python from transformers import AutoModelForCausalLM, AutoTokenizer import torch model_name = "NTIS/hf_gemma3_4b_9-checkpoint-63000" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype=torch.float16, device_map="auto" ) # 텍스트 생성 text = "안녕하세요" inputs = tokenizer(text, return_tensors="pt") outputs = model.generate( **inputs, max_length=100, do_sample=True, temperature=0.7, pad_token_id=tokenizer.eos_token_id ) result = tokenizer.decode(outputs[0], skip_special_tokens=True) print(result) ``` ## 훈련 정보 - 이 체크포인트는 특정 스텝에서 저장된 모델입니다 - 성능은 체크포인트마다 다를 수 있습니다 ## 주의사항 - 이 모델은 연구/실험 목적으로 제공됩니다 - 상업적 사용 전에 라이선스를 확인하세요 - GPU 메모리가 충분한지 확인하세요 (최소 8GB 권장)