|
# Google Colabでの推論手順 |
|
|
|
この手順では、Hugging Face HubにアップロードされたLLMモデル (`nagasahiro/llm-jp-3-13b-sft-07`)をGoogle Colab環境で読み込み、推論を実行する方法について説明します。 |
|
|
|
## 準備 |
|
|
|
1. **Google Colabへのログイン:** GoogleアカウントでGoogle Colabにログインしてください。 |
|
2. **ノートブックの作成:** 新しいPython 3のノートブックを作成します。 |
|
3. **シークレットの設定:** Hugging Face のトークン (`HF_TOKEN`) を Google Colab のシークレットに登録してください。 |
|
|
|
**シークレットの設定方法:** |
|
|
|
1. Google Colab の左側のメニューから「シークレット」を選択します。 |
|
2. 「シークレットを作成」をクリックし、名前 (`HF_TOKEN`) と値をそれぞれ入力して保存します。 |
|
|
|
|
|
## 推論の実行手順 |
|
|
|
以下の手順をGoogle Colabのコードセルに入力し、実行してください。 |
|
|
|
### 1. 必要なライブラリのインストール |
|
|
|
```python |
|
%%capture |
|
!pip uninstall unsloth -y && pip install --upgrade --no-cache-dir "unsloth[colab-new] @ git+https://github.com/unslothai/unsloth.git" |
|
``` |
|
|
|
### 2. Hugging Face Hubへのログイン |
|
|
|
Hugging Face Hubからモデルをダウンロードするために、認証を行います。以下のコードを実行し、Hugging Faceのトークンを入力してください。 |
|
|
|
```python |
|
from huggingface_hub import login |
|
from google.colab import userdata |
|
|
|
HF_TOKEN = userdata.get('HF_TOKEN') |
|
login(HF_TOKEN) |
|
``` |
|
|
|
### 3. モデルの準備 |
|
|
|
推論に使用するモデルをロードします。 |
|
|
|
```python |
|
from unsloth import FastLanguageModel |
|
|
|
model_name = "nagasahiro/llm-jp-3-13b-sft-07" |
|
max_seq_length = 2048 |
|
dtype = None |
|
load_in_4bit = True |
|
|
|
model, tokenizer = FastLanguageModel.from_pretrained( |
|
model_name = model_name, |
|
max_seq_length = max_seq_length, |
|
dtype = dtype, |
|
load_in_4bit = load_in_4bit, |
|
) |
|
|
|
FastLanguageModel.for_inference(model) |
|
``` |
|
|
|
### 4. 推論の実行 |
|
|
|
推論を実行するコードです。プロンプトを変更することで、様々なタスクに対応できます。 |
|
|
|
```python |
|
import torch |
|
|
|
prompt = "質問: 日本の首都は?\n回答:" |
|
inputs = tokenizer([prompt], return_tensors="pt").to(model.device) |
|
outputs = model.generate(**inputs, max_new_tokens=512, use_cache=True, do_sample=False, repetition_penalty=1.2) |
|
prediction = tokenizer.decode(outputs[0], skip_special_tokens=True).split('回答:')[-1] |
|
print(prediction) |
|
``` |
|
|
|
## 補足事項 |
|
|
|
* この手順は Google Colab 環境で L4 GPU を用いて検証されました。 |
|
* Google Colab の環境によっては、ライブラリのインストールやモデルのダウンロードに時間がかかる場合があります。 |
|
* エラーが発生した場合は、エラーメッセージを確認し、手順を見直してください。 |