ShotaMatsumoto commited on
Commit
15bf711
·
verified ·
1 Parent(s): 57e4951

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +40 -0
README.md CHANGED
@@ -33,6 +33,46 @@ ichikara-instructionデータは、CC BY-NC-SAライセンス(表示-非営利
33
  詳しくはこちらのホームページで確認してください。https://llm-jp.nii.ac.jp/blog/2024/04/30/v2.0-release.html
34
 
35
  # 推論方法
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
36
 
37
  # jsonlファイルの出力方法は以下の通りです。
38
  import json
 
33
  詳しくはこちらのホームページで確認してください。https://llm-jp.nii.ac.jp/blog/2024/04/30/v2.0-release.html
34
 
35
  # 推論方法
36
+ 事前にadapter_model.safetensorsをダウンロードしてください。
37
+
38
+ from transformers import AutoTokenizer, AutoModelForCausalLM
39
+ from peft import PeftModel
40
+ import torch
41
+
42
+ ベースモデル ID とアダプタファイルパス
43
+ base_model_id = "llm-jp/llm-jp-3-13b"
44
+ adapter_model_path = ""/path/to/adapter_model.safetensors""
45
+
46
+ デバイス設定
47
+ device = "cuda" if torch.cuda.is_available() else "cpu"
48
+
49
+ トークナイザーとベースモデルのロード
50
+ tokenizer = AutoTokenizer.from_pretrained(base_model_id, trust_remote_code=True)
51
+ base_model = AutoModelForCausalLM.from_pretrained(base_model_id, torch_dtype=torch.float16).to(device)
52
+
53
+ アダプタの読み込み
54
+ model = PeftModel.from_pretrained(base_model, adapter_model_path).to(device)
55
+
56
+ 推論関数
57
+ def generate_text(prompt, max_length=256, temperature=0.7):
58
+ inputs = tokenizer(prompt, return_tensors="pt").to(device)
59
+ outputs = model.generate(
60
+ inputs["input_ids"],
61
+ max_length=max_length,
62
+ temperature=temperature,
63
+ do_sample=True,
64
+ top_k=50,
65
+ top_p=0.9
66
+ )
67
+ return tokenizer.decode(outputs[0], skip_special_tokens=True)
68
+
69
+ テストプロンプト
70
+ prompt = "日本の経済について説明してください。"
71
+ print("Generating text...")
72
+ generated_text = generate_text(prompt)
73
+ print("\nGenerated Text:")
74
+ print(generated_text)
75
+
76
 
77
  # jsonlファイルの出力方法は以下の通りです。
78
  import json