junyamokubo commited on
Commit
25217f7
·
verified ·
1 Parent(s): 0bf0bba

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +1 -3
README.md CHANGED
@@ -16,12 +16,10 @@ datasets:
16
  # このモデルについて
17
 
18
  このモデルは、ベースモデルである"llm-jp/llm-jp-3-13b"を下記のデータセットでインストラクションチューニングを行いました。<br>
19
- <br>
20
  https://liat-aip.sakura.ne.jp/wp/llmのための日本語インストラクションデータ作成/llmのための日本語インストラクションデータ-公開/<br>
21
  関根聡, 安藤まや, 後藤美知子, 鈴木久美, 河原大輔, 井之上直也, 乾健太郎. ichikara-instruction: LLMのための日本語インストラクションデータの構築. 言語処理学会第30回年次大会(2024)<br>
22
  ![license-badge](https://i.creativecommons.org/l/by-nc-sa/4.0/88x31.png)<br>
23
-
24
- また、学習にはUnslothとHuggingfaceのTRL libraryを使用しています。
25
  This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
26
  [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
27
 
 
16
  # このモデルについて
17
 
18
  このモデルは、ベースモデルである"llm-jp/llm-jp-3-13b"を下記のデータセットでインストラクションチューニングを行いました。<br>
 
19
  https://liat-aip.sakura.ne.jp/wp/llmのための日本語インストラクションデータ作成/llmのための日本語インストラクションデータ-公開/<br>
20
  関根聡, 安藤まや, 後藤美知子, 鈴木久美, 河原大輔, 井之上直也, 乾健太郎. ichikara-instruction: LLMのための日本語インストラクションデータの構築. 言語処理学会第30回年次大会(2024)<br>
21
  ![license-badge](https://i.creativecommons.org/l/by-nc-sa/4.0/88x31.png)<br>
22
+ また、学習にはUnslothとHuggingfaceのTRL libraryを使用しています。<br>
 
23
  This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library.
24
  [<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="200"/>](https://github.com/unslothai/unsloth)
25