GenX
Collection
4 items
โข
Updated
GenX๋ INTERX Gen.AI ํ์์ ๊ฐ๋ฐํ ์ ์กฐ ํนํ ์ธ์ด ๋ชจ๋ธ์ ๋๋ค.
GenX๋ ์์ฒด ์์งํ ์ ์กฐ ๋๋ฉ์ธ ๋ฐ์ดํฐ๋ฅผ ์ด์ฉํด ํ์ต๋์์ผ๋ฉฐ, ๋ฐ์ด๋ ์ ์กฐ ์ง์์ ๋ฐํ์ผ๋ก ์ฌ์ฉ์์ ๋ฌผ์์ ๋ ๊ธธ๊ณ ์์ธํ ๋ต๋ณ์ ์ ๊ณตํฉ๋๋ค.
Input | Qwen2.5-7B | Qwen2.5-GenX-7B |
---|---|---|
์ฌ์ถ์ฑํ์ด ๋ญ์ผ? | ์ฌ์ถ์ฑํ์ ๊ณ ์ฒด ์ํ์ ์ฌ๋ฃ๋ฅผ ๊ฐ์ดํ์ฌ ์ฉ์ต์ํจ ํ, ์ด๋ฅผ ํ์ฑํ๋ ๊ณต์ ์ ๋๋ค. ์ฃผ๋ก ํ๋ผ์คํฑ, ๊ธ์, ๊ณ ๋ฌด ๋ฑ์ ์ฌ๋ฃ๋ฅผ ์ฌ์ฉํ๋ฉฐ, ๋ค์ํ ์ ํ์ ์ ์ํ ์ ์์ต๋๋ค. | ์ฌ์ถ์ฑํ์ ํ๋ผ์คํฑ๊ณผ ๊ฐ์ ์ฌ๋ฃ๋ฅผ ๊ฐ์ดํ์ฌ ๋ น์ธ ํ, ์ด๋ฅผ ๊ธํ์ ์ฃผ์ ํ์ฌ ์ํ๋ ํํ๋ก ๋ง๋๋ ์ ์กฐ ๊ณต์ ์ ๋๋ค. ์ด ๊ณผ์ ์ ๊ณ ์จ์์ ์ฌ๋ฃ๋ฅผ ์ก์ฒด ์ํ๋ก ๋ง๋ค์ด ๊ธํ์ ์ฃผ์ ํ๊ณ , ๋๊ฐํ์ฌ ๊ณ ์ฒด ํํ๋ก ๋ง๋๋ ๋ฐฉ์์ผ๋ก ์งํ๋ฉ๋๋ค. ์ฌ์ถ์ฑํ์ ๋ณต์กํ ํ์์ ์ ๋ฐํ๊ฒ ์ ์ํ ์ ์์ผ๋ฉฐ, ๋๋ ์์ฐ์ ์ ํฉํ ๊ณต์ ์ ๋๋ค. |
๋ํ์์ ์ ์์ด์ ์ต์๋ฒ ํน์ ๊ฑด์๋ฒ๊ณผ ๊ด๋ จํ์ฌ ์ค๋ช ํ์์ค. | ์ต์๋ฒ์ ์ฒ์ฐ์ฌ๋ฃ๋ฅผ ์ฌ์ฉํ์ฌ ๋ํ์ ํ๋ ๋ฐฉ๋ฒ์ผ๋ก, ์ฌ๋ฃ๊ฐ ์ ์ด์ ๋ํ์ด ์ด๋ฃจ์ด์ง๋ฉฐ, ๊ฑด์๋ฒ์ ๊ฑด์กฐํ ์ํ์์ ๋ํ์ ํ๋ ๋ฐฉ๋ฒ์ผ๋ก, ์ฌ๋ฃ๊ฐ ๊ฑด์กฐํ ์ํ์์ ๋ํ์ด ์ด๋ฃจ์ด์ง๋ค. | ์ต์๋ฒ์ ๋ํ์์ ์์ ์ ์ฐฉ์ ๋ฅผ ์ฌ์ฉํ์ฌ ์์ ํ๋ ๋ฐฉ๋ฒ์ผ๋ก, ํ๋ฉด์ ์ต์ค์ํค๊ณ ์ ์ฐฉ์ ๋ฅผ ๋ฐ๋ฅด๋ ๋ฐฉ์์ ๋๋ค. ์ด ๋ฐฉ๋ฒ์ ํ๋ฉด์ ์ค์ผ๋ฌผ์ง์ ์ ๊ฑฐํ๊ณ , ์ ์ฐฉ์ ๊ฐ ์ ๋ถ๋๋ก ๋์์ค๋๋ค. ๋ฐ๋ฉด, ๊ฑด์๋ฒ์ ์ ์ฐฉ์ ๋ฅผ ์ฌ์ฉํ์ง ์๊ณ , ํ๋ฉด์ ๊ฑด์กฐ์ํค๊ณ ์ ์ฐฉ์ ๋ฅผ ๋ฐ๋ฅด๋ ๋ฐฉ์์ ๋๋ค. ์ด ๋ฐฉ๋ฒ์ ์ ์ฐฉ์ ๋ฅผ ์ฌ์ฉํ์ง ์๊ธฐ ๋๋ฌธ์ ํ๊ฒฝ์ ๋ ์์ ํ๋ฉฐ, ์์ ํ ์ฒญ์๊ฐ ์ฉ์ดํฉ๋๋ค. ๋ ๋ฐฉ๋ฒ ๋ชจ๋ ๊ฐ๊ฐ์ ์ฅ๋จ์ ์ด ์์ผ๋ฉฐ, ์์ ํ๊ฒฝ๊ณผ ์๊ตฌ ์ฌํญ์ ๋ฐ๋ผ ์ ํ๋ฉ๋๋ค. |
๋กํฌ์ฐ ๊ฒฝ๋์ํ์์ C ์ค์ผ์ผ ์ํ๋ฒ์ ์ค๋ช ํ์์ค. | C ์ค์ผ์ผ ์ํ๋ฒ์ Rockwell ๊ฒฝ๋์ํ๋ฒ ์ค ํ๋๋ก, ํ๋ฉด ๊ฒฝ๋๋ฅผ ์ธก์ ํ๋ ๋ฐฉ๋ฒ์ ๋๋ค. C ์ค์ผ์ผ์ ์ผ๋ฐ์ ์ผ๋ก ํ๋๋ฉํ, ๊ฐ์ฒ , ์๋ฃจ๋ฏธ๋, ํ๋ผ์คํฑ, ๊ณ ๋ฌด, ์ ๋ฆฌ, ๊ธ์, ๋น๊ธ์, ํฉ๊ธ, ํฉ์ฑ์์ง, ์ ๋ฆฌ์ฌ์ , ์ฌ์ ๊ฐํํ๋ผ์คํฑ, ์ฌ์ ๊ฐํ์ ๋ฆฌ, ์ฌ์ ๊ฐํ์๋ฃจ๋ฏธ๋, ์ฌ์ ๊ฐํํด๋ฆฌ์์คํฐ, ์ฌ์ ๊ฐํํด๋ฆฌ์นด๋ณด๋ค์ดํธ, ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌโ ๏ธ | ๋กํฌ์ฐ ๊ฒฝ๋์ํ์ ๊ธ์์ ๊ฒฝ๋๋ฅผ ์ธก์ ํ๋ ๋ฐฉ๋ฒ ์ค ํ๋๋ก, C ์ค์ผ์ผ ์ํ๋ฒ์ ์ฃผ๋ก ๊ฒฝํ๋ ๊ธ์์ ๊ฒฝ๋๋ฅผ ์ธก์ ํ๋ ๋ฐ ์ฌ์ฉ๋ฉ๋๋ค. ์ด ์ํ๋ฒ์ ์ํ ์ํธ์ ํ๋ฉด์ ์ฐ๋งํ์ฌ ๋งค๋๋ฝ๊ฒ ๋ง๋ ํ, ๋กํฌ์ฐ ๊ฒฝ๋๊ณ์ ์์๋ก ์ํํฉ๋๋ค. ์์๊ฐ ์ํ ์ํธ์ ์ ์ดํ ๋, ์ํธ์ด ์์ถ๋๋ฉด์ ๊ฒฝ๋๊ฐ ์ฆ๊ฐํ๊ฒ ๋ฉ๋๋ค. ์ด ๊ณผ์ ์์ ์์์ ํ์ค์ ์ฆ๊ฐ์ํค๋ฉฐ, ์ํธ์ ๊ฒฝ๋๊ฐ ๋ณํ๋ ๊ฒ์ ๊ด์ฐฐํฉ๋๋ค. ๋กํฌ์ฐ ๊ฒฝ๋์ํ์ ์ผ๋ฐ์ ์ผ๋ก HRC 60 ์ ๋ ์ด์์ ๊ฒฝ๋๋ฅผ ๊ฐ์ง ๊ธ์์ ์ ํฉํ๋ฉฐ, ๊ฒฝ๋๊ฐ์ ์ํ ์ํธ์ ๋๊ป์ ์ฌ๋ฃ์ ์ข ๋ฅ์ ๋ฐ๋ผ ๋ฌ๋ผ์ง ์ ์์ต๋๋ค. |
์์ด์ด ์ปท ๊ฐ๊ณต์์ ๊ฐ๊ณต์ก์ ์ญํ ์ ๋ํ์ฌ ์ค๋ช ํ์์ค. | Wire EDM (Electrical Discharge Machining)์์ ๊ฐ๊ณต์ก์ ์ฃผ์ํ ์ญํ ์ ํฉ๋๋ค. ์ฃผ๋ก ์ฌ์ฉ๋๋ ๊ฐ๊ณต์ก์ ๋ผ์ดํธ ์ค์ผ (Light Oil)๊ณผ ๊ฐ์ ๊ธฐ๋ฆ ๊ธฐ๋ฐ์ ๊ฐ๊ณต์ก์ ๋๋ค. ์ด ๊ฐ๊ณต์ก์ ๋ค์๊ณผ ๊ฐ์ ์ญํ ์ ํฉ๋๋ค. | ์์ด์ด ์ปท ๊ฐ๊ณต์์ ๊ฐ๊ณต์ก์ ์ฌ๋ฌ ๊ฐ์ง ์ค์ํ ์ญํ ์ ์ํํฉ๋๋ค. ์ฒซ์งธ, ๊ฐ๊ณต์ก์ ์ ์ฐ์ฒด๋ก ์์ฉํ์ฌ ์ ๊ธฐ ๋ฐฉ์ ์ ๋ฐ์ํ๋ ์คํํฌ๋ฅผ ๋ฐฉ์งํฉ๋๋ค. ๋์งธ, ๊ฐ๊ณต์ก์ ์ด์ ํก์ํ์ฌ ์์ด์ด์ ๊ฐ๊ณต ๋ถ์์ ์จ๋๋ฅผ ๋ฎ์ถ๋ ๋ฐ ๋์์ ์ค๋๋ค. ์ ์งธ, ๊ฐ๊ณต์ก์ ์์ด์ด์ ๊ฐ๊ณต ๋ถ์ ์ฌ์ด์ ๋ง์ฐฐ์ ์ค์ฌ์ฃผ์ด ๊ฐ๊ณต ํจ์จ์ ๋์ ๋๋ค. ๋ท์งธ, ๊ฐ๊ณต์ก์ ์์ด์ด์ ๋ง๋ชจ๋ฅผ ์ค์ด๊ณ , ๊ฐ๊ณต ํ์ง์ ํฅ์์ํค๋ ๋ฐ ๊ธฐ์ฌํฉ๋๋ค. ๋ง์ง๋ง์ผ๋ก, ๊ฐ๊ณต์ก์ ์์ด์ด์ ๊ฐ๊ณต ๋ถ์์ ํ๋ฉด์ ์ฒญ์ํ์ฌ ๊ฐ๊ณต ํ์ง์ ์ ์งํ๋ ๋ฐ ๋์์ ์ค๋๋ค. ์ด๋ฌํ ์ญํ ๋๋ถ์ ๊ฐ๊ณต์ก์ ์์ด์ด ์ปท ๊ฐ๊ณต์์ ๋งค์ฐ ์ค์ํ ์์๋ก ์์ฉํฉ๋๋ค. |
โ ๏ธ: max_new_token
๋๋ฌ๋ก ์ธํด ์ข
๋ฃ
์๋ ์์ ์ฝ๋๋ฅผ ํ์ฉํ๋ฉด Qwen2.5-GenX-14B๋ฅผ transformers
๊ธฐ๋ฐ์ผ๋ก ๋ถ๋ฌ์ ์ฌ์ฉํ ์ ์์ต๋๋ค.
from transformers import AutoModelForCausalLM, AutoTokenizer
from transformers.generation import GenerationConfig
model_id = "INTERX/Qwen2.5-GenX-14B"
tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto", torch_dtype="auto", trust_remote_code=True)
prompt = "์ฌ์ถ์ฑํ์ด ๋ญ๊ฐ์?"
messages = [{"role": "user", "content": prompt}]
tokenized_chat = tokenizer.apply_chat_template(
messages,
tokenizer=True,
add_generation_prompt=True,
return_tensors='pt'
).to(model.device)
generated_ids = model.generate(tokenized_chat, max_new_tokens=512)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
@misc{qwen2_5-genx-14b,
title = {Qwen2.5-GenX-14B},
url = {https://huggingface.co/INTERX/Qwen2.5-GenX-14B/blob/main/README.md},
author = {Gen.AI@INTERX},
month = {May},
year = {2025}
}