FinBERT Sentiment Analysis (Korean, Finance Domain)

이 λͺ¨λΈμ€ ν•œκ΅­μ–΄ ν™˜μœ¨(금육) λ‰΄μŠ€ μš”μ•½λ¬Έμ„ λŒ€μƒμœΌλ‘œ 감정을 λΆ„λ₯˜ν•˜κΈ° μœ„ν•΄ νŒŒμΈνŠœλ‹λœ BERT 기반 λͺ¨λΈμž…λ‹ˆλ‹€.
감정 λΆ„λ₯˜λŠ” λ‹€μŒ μ„Έ κ°€μ§€ 클래슀 쀑 ν•˜λ‚˜λ‘œ μˆ˜ν–‰λ©λ‹ˆλ‹€:

  • 0: λΆ€μ •
  • 1: 쀑립
  • 2: 긍정

🧠 ν•™μŠ΅ 정보

  • 기반 λͺ¨λΈ: snunlp/KR-FinBERT-SC
  • 데이터: 직접 μˆ˜μ§‘ν•œ 넀이버 ν™˜μœ¨(금육) λ‰΄μŠ€ μš”μ•½ + 감정 μˆ˜μž‘μ—… 라벨링
  • 총 μƒ˜ν”Œ 수: μ•½ 200
  • Optimizer: AdamW
  • Epochs: 4
  • μ΅œλŒ€ 길이: 128
  • 평가 μ§€ν‘œ: Accuracy, F1 Score

πŸ“Š μ„±λŠ₯ 평가

감정 클래슀 Precision Recall F1-score Support
λΆ€μ • 0.89 1.00 0.94 17
쀑립 1.00 0.82 0.90 11
긍정 0.93 0.93 0.93 14
정확도 0.93 42

전체 정확도: 93%
Macro F1-score: 0.92


πŸ›  μ‚¬μš© 방법

from transformers import pipeline

pipe = pipeline("text-classification", model="DataWizardd/finbert-sentiment-ko")

pipe("ν™˜μœ¨μ΄ κΈ‰λ“±ν•˜λ©° μ‹œμž₯ λΆˆμ•ˆμ΄ 컀지고 μžˆλ‹€.")
# 좜λ ₯: [{'label': 'λΆ€μ •', 'score': 0.95}]
Downloads last month
21
Safetensors
Model size
101M params
Tensor type
F32
Β·
Inference Providers NEW
This model isn't deployed by any Inference Provider. πŸ™‹ Ask for provider support