Update README.md
Browse files
README.md
CHANGED
@@ -45,7 +45,7 @@ pipeline_tag: text-generation
|
|
45 |
</div>
|
46 |
|
47 |
|
48 |
-
AI
|
49 |
mistralai/Mistral-Nemo-Instruct-2407 베이스모델을 사용해서 H100-80G 8개를 통해 약 20%정도의 파라미터를 한국어 CPT(Continued-Pretraining)->SFT->DPO 한 <br>
|
50 |
한글 언어 모델인 Saxo/Linkbricks-Horizon-AI-Korean-Advanced-12B을 추가적인 한글, 영어, 일어, 중국어 교차 데이터들을 활용해서 다양한 테스크별 한국어-중국어-영어-일본어 교차 학습 데이터와 수학 및 <br>
|
51 |
논리판단 데이터를 통하여 한중일영 언어 교차 증강 처리와 복잡한 논리 문제 역시 대응 가능하도록 훈련한 모델이다.<br>
|
@@ -55,7 +55,7 @@ mistralai/Mistral-Nemo-Instruct-2407 베이스모델을 사용해서 H100-80G 8
|
|
55 |
-128k-Context Window<br>
|
56 |
<br><br>
|
57 |
|
58 |
-
|
59 |
using the Saxo/Linkbricks-Horizon-AI-Korean-Advanced-12B, a Korean language model that uses the mistralai/Mistral-Nemo-Instruct-2407 basemodel to train about 20% of the parameters through 8 H100-80Gs <br>
|
60 |
using Korean CPT (Continued-Pretraining)->SFT->DPO.
|
61 |
It is a model trained to handle cross-lingual augmentation and complex logic problems by utilizing additional Korean, Engliash, Japanese and Chinese Language data, cross-training data of Korean, Chinese, English, and Japanese by various tasks, and math and logic judgment data.
|
|
|
45 |
</div>
|
46 |
|
47 |
|
48 |
+
AI 전문 기업인 Linkbricks Horizon-AI 의 데이터사이언티스트인 지윤성(Saxo) 대표가 <br>
|
49 |
mistralai/Mistral-Nemo-Instruct-2407 베이스모델을 사용해서 H100-80G 8개를 통해 약 20%정도의 파라미터를 한국어 CPT(Continued-Pretraining)->SFT->DPO 한 <br>
|
50 |
한글 언어 모델인 Saxo/Linkbricks-Horizon-AI-Korean-Advanced-12B을 추가적인 한글, 영어, 일어, 중국어 교차 데이터들을 활용해서 다양한 테스크별 한국어-중국어-영어-일본어 교차 학습 데이터와 수학 및 <br>
|
51 |
논리판단 데이터를 통하여 한중일영 언어 교차 증강 처리와 복잡한 논리 문제 역시 대응 가능하도록 훈련한 모델이다.<br>
|
|
|
55 |
-128k-Context Window<br>
|
56 |
<br><br>
|
57 |
|
58 |
+
CEO Yunsung Ji (Saxo), a data scientist at Linkbricks Horizon-AI, a company specializing in AI and big data analytics, has developed a Korean language model<br>
|
59 |
using the Saxo/Linkbricks-Horizon-AI-Korean-Advanced-12B, a Korean language model that uses the mistralai/Mistral-Nemo-Instruct-2407 basemodel to train about 20% of the parameters through 8 H100-80Gs <br>
|
60 |
using Korean CPT (Continued-Pretraining)->SFT->DPO.
|
61 |
It is a model trained to handle cross-lingual augmentation and complex logic problems by utilizing additional Korean, Engliash, Japanese and Chinese Language data, cross-training data of Korean, Chinese, English, and Japanese by various tasks, and math and logic judgment data.
|