ํ์ฅํ QA ํ์ธํ๋ ๋ชจ๋ธ
๋ชจ๋ธ ์ค๋ช
์ด ๋ชจ๋ธ์ ์์ฝ์ฒ์ '2024 ์์ฃผํ๋ ์ง๋ฌธ์ง(ํ์ฅํ)' e-book ๋ด ์ง์์๋ต ๋ฐ์ดํฐ๋ก ํ์ธํ๋๋ ๋ชจ๋ธ์ ๋๋ค.
ํ์ต ๋ฐ์ดํฐ
e-book ๋ด ์ฝ 300๊ฐ์ ์ง์์๋ต์์ ๊ธฐ๋ฐ์ผ๋ก Open AI API๋ฅผ ํ์ฉํ์ฌ Paraphrasing ๋ฐ์ดํฐ ์ฆ๊ฐ ์ ์ฉํ์์ต๋๋ค.
- ์ต์ข ์ง์์๋ต์ ์: ์ฝ 2,800์
- ํ์ธํ๋ ๋ฐฉ์: ์ง๋ฌธ์ ์ ๋ ฅ์ผ๋ก, ์ ๋ต์ ์ถ๋ ฅ์ผ๋ก ์์ฑํ๋ ๋ฐฉ์
- ํ๊ฐ ์งํ: Rouge-L
์ฌ์ฉ ๋ฐฉ๋ฒ
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
# ๋ชจ๋ธ ๋ฐ ํ ํฌ๋์ด์ ๋ก๋
model = AutoModelForSeq2SeqLM.from_pretrained("seokhyokang/kobart-cosmetics-qa")
tokenizer = AutoTokenizer.from_pretrained("seokhyokang/kobart-cosmetics-qa")
# ์ง๋ฌธ์ ๋ํ ๋ต๋ณ ์์ฑ ํจ์
def generate_answer(question, model, tokenizer, device="cuda"):
"""
์ง๋ฌธ์ ๋ํ ๋ต๋ณ์ ์์ฑํ๋ ํจ์
"""
model.eval()
inputs = tokenizer(
question,
return_tensors="pt",
max_length=128,
padding="max_length",
truncation=True
).to(device)
outputs = model.generate(
inputs.input_ids,
max_length=128,
num_beams=4,
early_stopping=True
)
answer = tokenizer.decode(outputs[0], skip_special_tokens=True)
return answer
์ถ๋ก ์์
test_questions = [
"์์
ํ์ฅํ์ ์ ์กฐ์ ์ฃผ์๋ ์๋ฌธ ๋๋ ๊ตญ๋ฌธ ์ค ๋ฌด์์ผ๋ก ๊ธฐ์ฌํด์ผ ํ๋์?",
"ํ์ฅํ ์ ์กฐ์ฌ๊ฐ ์ ํ์ ์ฑ
์ํ๋งค์
์์๊ฒ ์ ๊ณตํ ๋, ๋ฑ๋ก์ด ์๊ตฌ๋๋์?",
"์ง๋ฃจ์ฑ ๋ํผ์ฉ ์ดํธ๋ก ๊ด๊ณ ํด๋ ๊ด์ฐฎ์๊ฐ์?",
"์ฐ์ ํฉ ํํ์ ํธ๋์์ ์ฉ๊ธฐ๊ฐ ์ํ ๋ชจ๋ฐฉ ํ์ฅํ์ ํด๋น๋๋์?",
"ํ์ฅํ ํ์์ฌํญ์ผ๋ก ๋ฐ์ฝ๋ ๋์ QR์ฝ๋ ํ์๊ฐ ๊ฐ๋ฅํ๊ฐ์?",
]
print("-" * 50)
for question in test_questions:
answer = generate_answer(question, model, tokenizer, device)
print(f"์ง๋ฌธ: {question}")
print(f"์์ฑ๋ ๋ต๋ณ: {answer}")
print("-" * 50)
# ์ถ๋ ฅ ์์
# --------------------------------------------------
# ์ง๋ฌธ: ์์
ํ์ฅํ์ ์ ์กฐ์ ์ฃผ์๋ ์๋ฌธ ๋๋ ๊ตญ๋ฌธ ์ค ๋ฌด์์ผ๋ก ๊ธฐ์ฌํด์ผ ํ๋์?
# ์์ฑ๋ ๋ต๋ณ: ์ ์กฐ์ ์ ๋ณด๋ ์ฝ๊ฒ ์ฝํ๊ณ ์ดํดํ ์ ์๋ ํ๊ธ๋ก ํ์ํด์ผ ํ๋ฉฐ, ์ธ๊ตญ์ด๋ ํจ๊ป ๊ธฐ์ฌํ ์ ์์ต๋๋ค.
# --------------------------------------------------
# ์ง๋ฌธ: ํ์ฅํ ์ ์กฐ์ฌ๊ฐ ์ ํ์ ์ฑ
์ํ๋งค์
์์๊ฒ ์ ๊ณตํ ๋, ๋ฑ๋ก์ด ์๊ตฌ๋๋์?
# ์์ฑ๋ ๋ต๋ณ: ์๋น์์๊ฒ ์ง์ ํ๋งคํ์ง ์์ผ๋ฉด, ์ฑ
์ํ๋งค์
๋ฑ๋ก ๋์์ด ์๋๋๋ค.
# --------------------------------------------------
# ์ง๋ฌธ: ์ง๋ฃจ์ฑ ๋ํผ์ฉ ์ดํธ๋ก ๊ด๊ณ ํด๋ ๊ด์ฐฎ์๊ฐ์?
# ์์ฑ๋ ๋ต๋ณ: ์ง๋ฃจ์ฑ ๋ํผ๋ ์ง๋ณ์ ์์ํ ์ ์์ผ๋ฏ๋ก, ํ์ฅํ ๊ด๊ณ ์ ์ฌ์ฉํ๋ ๊ฒ์ ๋ถ์ ์ ํฉ๋๋ค.
# --------------------------------------------------
# ์ง๋ฌธ: ์ฐ์ ํฉ ํํ์ ํธ๋์์ ์ฉ๊ธฐ๊ฐ ์ํ ๋ชจ๋ฐฉ ํ์ฅํ์ ํด๋น๋๋์?
# ์์ฑ๋ ๋ต๋ณ: ์ํ์ผ๋ก ์ค์ธ๋ ๊ฐ๋ฅ์ฑ์ด ์๋ ์ฉ๊ธฐ๋ ํ์ฅํ๋ฒ ์๋ฐ์ ํด๋นํ ์ ์์ผ๋ ์ฃผ์ํด์ผ ํฉ๋๋ค.
# --------------------------------------------------
# ์ง๋ฌธ: ํ์ฅํ ํ์์ฌํญ์ผ๋ก ๋ฐ์ฝ๋ ๋์ QR์ฝ๋ ํ์๊ฐ ๊ฐ๋ฅํ๊ฐ์?
# ์์ฑ๋ ๋ต๋ณ: ํ์ฅํ ๋ฐ์ฝ๋ ํ์ ๋ฐ ๊ด๋ฆฌ์๋ น์์ ๊ท์ ํ๊ณ ์๋ ๋ฐ์ฝ๋ ์ข
๋ฅ๋ง ์ฌ์ฉ ๊ฐ๋ฅํฉ๋๋ค.
# --------------------------------------------------
- Downloads last month
- 2
Model tree for seokhyokang/kobart-cosmetics-qa
Base model
gogamza/kobart-base-v2