--- base_model: - llm-jp/llm-jp-3-3.7b-instruct2 license: apache-2.0 datasets: - p1atdev/gsm8k-ja-slim - SyntheticVeryEasyMath5k - SyntheticWhichIsGreater5k language: - ja library_name: transformers tags: - grpo - trl --- additional instruction: ``` 回答する際は、思考過程をブロック内に記述し、最終的な答えを数値のみでブロック内に記述してください。 ``` ## Example ```py import torch from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("p1atdev/llm-jp-3-3.7b-instruct2-R27") model = AutoModelForCausalLM.from_pretrained("p1atdev/llm-jp-3-3.7b-instruct2-R27", torch_dtype=torch.float16) model = model.eval().to("cuda") additional_instruction = "回答する際は、思考過程をブロック内に記述し、最終的な答えを数値のみでブロック内に記述してください。" question = "ナタリアは4月に48人の友人にクリップを販売し、その後5月にはその半分の数のクリップを販売しました。ナタリアは4月と5月の合計でいくつのクリップを販売しましたか?" inputs = tokenizer.apply_chat_template( [ { "role": "user", "content": question }, ], additional_instruction=additional_instruction, # pass the additional instruction tokenize=False, add_generation_prompt=True, # append "### 応答:" return_tensors="pt", ) inputs = tokenizer(inputs, return_tensors="pt").to(model.device) with torch.inference_mode(): outputs = model.generate( **inputs, do_sample=True, temperature=0.9, top_p=0.6, top_k=20, max_new_tokens=256, repetition_penalty=1.0, eos_token_id=tokenizer.eos_token_id, pad_token_id=tokenizer.pad_token_id, ) print(tokenizer.decode(outputs[0][len(inputs.input_ids[0]):])) ``` the output: ``` 4月にナタリアは48人の友人にクリップを販売しました。 5月にはその半分の数のクリップを販売したので、48 ÷ 2 = 24人の友人にクリップを販売したことになります。 したがって、4月と5月の合計でナタリアは48 + 24 = 72人の友人にクリップを販売したことになります。 72 ``` ## Dataset - 日本語訳した GSM8K ([p1atdev/gsm8k-ja-slim](https://huggingface.co/datasets/p1atdev/gsm8k-ja-slim)) - うち、苗字や人名に関する問題を除外 - SyntheticVeryEasyMath5k - 機械的に合成した、整数の四則演算問題 5,000問 - SyntheticWhichIsGreater5k - 機械的に合成した、二つの小数のどちらが大きいかを回答する問題 5,000問