gpt-oss-20b-eddy

📖 Model Overview

gpt-oss-20b-eddyOpenAI의 gpt-oss-20b 모델을 기반으로, 실제 사용자의 복잡하고 다양한 지시사항(Instruction)을 높은 정확도와 실용성으로 수행하도록 특수 파인튜닝(Fine-Tuning)된 모델입니다.

단순히 학술적인 벤치마크 점수를 높이는 것을 넘어, 현실 세계의 비정형적인 사용자 요청에 유연하고 적절하게 반응하는 것을 최우선 목표로 개발되었습니다.

Collaborators & Infrastructure

본 모델은 산학 협력을 통해 고도화된 기술력과 최적의 인프라 환경에서 개발되었습니다.

  • Development & Tuning: 테디썸(TeddySum), KAIST Team(임경태 교수)
  • Computing Infrastructure: 엠키스코어(MKISCore)
    • 본 모델은 엠키스코어의 최적화된 고성능 서버 및 GPU 클러스터 환경에서 학습되어, 안정적이고 빠른 학습 효율을 달성했습니다.

🎯 Key Objectives

본 모델의 튜닝은 다음과 같은 명확한 목표를 가지고 진행되었습니다.

  1. 향상된 Instruction Following (Advanced Instruction Following)

    • 단순 질의응답을 넘어, 다단계의 복잡한 명령이나 미묘한 뉘앙스가 포함된 사용자 지시를 정확하게 파악하고 이행합니다.
  2. 실사용 환경 적합성 (Real-World Robustness)

    • 벤치마크 데이터셋에 대한 과적합(Overfitting)을 지양합니다.
    • 실제 사용자들이 입력하는 구어체, 비문, 불명확한 프롬프트에 대해서도 안정적이고 유용한 응답을 생성하도록 설계되었습니다.

📈 Performance (Evaluation)

베이스라인인 oss-20b 모델과 비교하여 주요 벤치마크에서 성능 향상을 확인했습니다. 특히 고도의 추론 능력이 요구되는 AIME 25에서 큰 폭의 성능 개선을 이루었습니다.

Benchmark oss-20b (Base) gpt-oss-20b-eddy (Ours) Improvement
AIME 25 63.33% 73.33% +10.00%
DROP 76.04% 76.48% +0.44%
ARC 93.86% 93.88% +0.02%
KMMLU-PRO Overall 36.40% 36.76% +0.36%

Note: gpt-oss-20b-eddy는 정량적 지표뿐만 아니라, 실제 사용자 경험(UX) 중심의 응답 품질 향상에 주력했습니다.


💻 Quick Start

transformers 라이브러리를 사용하여 모델을 쉽게 로드하고 텍스트를 생성할 수 있습니다.

Prerequisites

pip install torch transformers accelerate
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer

# 모델 로드 (경로는 실제 모델 경로로 변경 필요)
model_id = "Your-HuggingFace-ID/gpt-oss-20b-eddy" 

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto",
    trust_remote_code=True
)

# 채팅 메시지 구성
messages = [
    {"role": "system", "content": "당신은 테디썸과 KAIST가 개발한 유용한 AI 어시스턴트입니다."},
    {"role": "user", "content": "인공지능이 바꿀 미래 사회의 모습을 3가지 키워드로 설명해줘."}
]

# 입력 데이터 처리
input_ids = tokenizer.apply_chat_template(
    messages,
    add_generation_prompt=True,
    return_tensors="pt"
).to(model.device)

# 텍스트 생성
outputs = model.generate(
    input_ids,
    max_new_tokens=512,
    repetition_penalty=1.1,
    do_sample=True,
    temperature=0.7,
    top_p=0.9
)

# 결과 디코딩 및 출력
print(tokenizer.decode(outputs[0][input_ids.shape[-1]:], skip_special_tokens=True))

Contact

Teddysum: [email protected]

Downloads last month
81
Safetensors
Model size
21B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Teddysum/gpt-oss-20b-eddy

Base model

openai/gpt-oss-20b
Finetuned
(411)
this model
Quantizations
1 model