gpt-oss-20b-eddy
📖 Model Overview
gpt-oss-20b-eddy는 OpenAI의 gpt-oss-20b 모델을 기반으로, 실제 사용자의 복잡하고 다양한 지시사항(Instruction)을 높은 정확도와 실용성으로 수행하도록 특수 파인튜닝(Fine-Tuning)된 모델입니다.
단순히 학술적인 벤치마크 점수를 높이는 것을 넘어, 현실 세계의 비정형적인 사용자 요청에 유연하고 적절하게 반응하는 것을 최우선 목표로 개발되었습니다.
Collaborators & Infrastructure
본 모델은 산학 협력을 통해 고도화된 기술력과 최적의 인프라 환경에서 개발되었습니다.
- Development & Tuning: 테디썸(TeddySum), KAIST Team(임경태 교수)
- Computing Infrastructure: 엠키스코어(MKISCore)
- 본 모델은 엠키스코어의 최적화된 고성능 서버 및 GPU 클러스터 환경에서 학습되어, 안정적이고 빠른 학습 효율을 달성했습니다.
🎯 Key Objectives
본 모델의 튜닝은 다음과 같은 명확한 목표를 가지고 진행되었습니다.
향상된 Instruction Following (Advanced Instruction Following)
- 단순 질의응답을 넘어, 다단계의 복잡한 명령이나 미묘한 뉘앙스가 포함된 사용자 지시를 정확하게 파악하고 이행합니다.
실사용 환경 적합성 (Real-World Robustness)
- 벤치마크 데이터셋에 대한 과적합(Overfitting)을 지양합니다.
- 실제 사용자들이 입력하는 구어체, 비문, 불명확한 프롬프트에 대해서도 안정적이고 유용한 응답을 생성하도록 설계되었습니다.
📈 Performance (Evaluation)
베이스라인인 oss-20b 모델과 비교하여 주요 벤치마크에서 성능 향상을 확인했습니다. 특히 고도의 추론 능력이 요구되는 AIME 25에서 큰 폭의 성능 개선을 이루었습니다.
| Benchmark | oss-20b (Base) |
gpt-oss-20b-eddy (Ours) |
Improvement |
|---|---|---|---|
| AIME 25 | 63.33% | 73.33% | +10.00% |
| DROP | 76.04% | 76.48% | +0.44% |
| ARC | 93.86% | 93.88% | +0.02% |
| KMMLU-PRO Overall | 36.40% | 36.76% | +0.36% |
Note:
gpt-oss-20b-eddy는 정량적 지표뿐만 아니라, 실제 사용자 경험(UX) 중심의 응답 품질 향상에 주력했습니다.
💻 Quick Start
transformers 라이브러리를 사용하여 모델을 쉽게 로드하고 텍스트를 생성할 수 있습니다.
Prerequisites
pip install torch transformers accelerate
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
# 모델 로드 (경로는 실제 모델 경로로 변경 필요)
model_id = "Your-HuggingFace-ID/gpt-oss-20b-eddy"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto",
trust_remote_code=True
)
# 채팅 메시지 구성
messages = [
{"role": "system", "content": "당신은 테디썸과 KAIST가 개발한 유용한 AI 어시스턴트입니다."},
{"role": "user", "content": "인공지능이 바꿀 미래 사회의 모습을 3가지 키워드로 설명해줘."}
]
# 입력 데이터 처리
input_ids = tokenizer.apply_chat_template(
messages,
add_generation_prompt=True,
return_tensors="pt"
).to(model.device)
# 텍스트 생성
outputs = model.generate(
input_ids,
max_new_tokens=512,
repetition_penalty=1.1,
do_sample=True,
temperature=0.7,
top_p=0.9
)
# 결과 디코딩 및 출력
print(tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=True))
Contact
Teddysum: [email protected]
- Downloads last month
- 81