ShotaMatsumoto commited on
Commit
199e3fd
·
verified ·
1 Parent(s): 15bf711

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +6 -0
README.md CHANGED
@@ -40,20 +40,25 @@ from peft import PeftModel
40
  import torch
41
 
42
  ベースモデル ID とアダプタファイルパス
 
43
  base_model_id = "llm-jp/llm-jp-3-13b"
44
  adapter_model_path = ""/path/to/adapter_model.safetensors""
45
 
46
  デバイス設定
 
47
  device = "cuda" if torch.cuda.is_available() else "cpu"
48
 
49
  トークナイザーとベースモデルのロード
 
50
  tokenizer = AutoTokenizer.from_pretrained(base_model_id, trust_remote_code=True)
51
  base_model = AutoModelForCausalLM.from_pretrained(base_model_id, torch_dtype=torch.float16).to(device)
52
 
53
  アダプタの読み込み
 
54
  model = PeftModel.from_pretrained(base_model, adapter_model_path).to(device)
55
 
56
  推論関数
 
57
  def generate_text(prompt, max_length=256, temperature=0.7):
58
  inputs = tokenizer(prompt, return_tensors="pt").to(device)
59
  outputs = model.generate(
@@ -67,6 +72,7 @@ def generate_text(prompt, max_length=256, temperature=0.7):
67
  return tokenizer.decode(outputs[0], skip_special_tokens=True)
68
 
69
  テストプロンプト
 
70
  prompt = "日本の経済について説明してください。"
71
  print("Generating text...")
72
  generated_text = generate_text(prompt)
 
40
  import torch
41
 
42
  ベースモデル ID とアダプタファイルパス
43
+
44
  base_model_id = "llm-jp/llm-jp-3-13b"
45
  adapter_model_path = ""/path/to/adapter_model.safetensors""
46
 
47
  デバイス設定
48
+
49
  device = "cuda" if torch.cuda.is_available() else "cpu"
50
 
51
  トークナイザーとベースモデルのロード
52
+
53
  tokenizer = AutoTokenizer.from_pretrained(base_model_id, trust_remote_code=True)
54
  base_model = AutoModelForCausalLM.from_pretrained(base_model_id, torch_dtype=torch.float16).to(device)
55
 
56
  アダプタの読み込み
57
+
58
  model = PeftModel.from_pretrained(base_model, adapter_model_path).to(device)
59
 
60
  推論関数
61
+
62
  def generate_text(prompt, max_length=256, temperature=0.7):
63
  inputs = tokenizer(prompt, return_tensors="pt").to(device)
64
  outputs = model.generate(
 
72
  return tokenizer.decode(outputs[0], skip_special_tokens=True)
73
 
74
  テストプロンプト
75
+
76
  prompt = "日本の経済について説明してください。"
77
  print("Generating text...")
78
  generated_text = generate_text(prompt)