eyepyon/rcPhi4miniR-finetuned

このモデルは、microsoft/Phi-4-mini-reasoning をベースにLoRAでファインチューニングされたモデルです。

モデル情報

  • ベースモデル: microsoft/Phi-4-mini-reasoning
  • ファインチューニング手法: LoRA (Low-Rank Adaptation)
  • アテンション実装: eager (Phi-4推奨)
  • 量子化: 4ビット (QLoRA)
  • 対応言語: 日本語
  • タスク: 質問応答

使用方法

from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel

# ベースモデルとトークナイザーを読み込み
base_model = AutoModelForCausalLM.from_pretrained(
    "microsoft/Phi-4-mini-reasoning",
    torch_dtype="auto",
    device_map="auto",
    attn_implementation="eager",
    trust_remote_code=True
)
tokenizer = AutoTokenizer.from_pretrained("microsoft/Phi-4-mini-reasoning")

# LoRAアダプターを適用
model = PeftModel.from_pretrained(base_model, "eyepyon/rcPhi4miniR-finetuned")

# 推論
input_text = "### コンテキスト:\n[コンテキスト]\n\n### 質問:\n[質問]\n\n### 回答:\n"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=200, do_sample=True, temperature=0.7)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)

入力フォーマット

### コンテキスト:
[背景情報]

### 質問:
[ユーザーの質問]

### 回答:
[期待される回答]

トレーニング設定

  • LoRAランク: 8
  • LoRA Alpha: 16
  • ターゲットモジュール: qkv_proj, o_proj, gate_up_proj, down_proj
  • 学習率: 2e-4
  • バッチサイズ: 1 × 4 (gradient accumulation)
  • エポック数: 3

注意事項

  • Phi-4モデル使用のため attn_implementation="eager" が推奨されます
  • use_cache=False でトレーニングされています
  • グラディエントチェックポイント対応済み
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for eyepyon/rcPhi4miniR-finetuned

Adapter
(3)
this model