rc3gemma-2-2b-finetuned

モデル概要

このモデルはgoogle/gemma-2-2bをベースとしたファインチューニング済みモデルです。

  • ベースモデル: google/gemma-2-2b
  • モデルタイプ: Fine-tuned Model
  • 言語: 日本語、英語
  • ライセンス: MIT
  • 訓練日時: 2025-06-10 06:06:49

訓練詳細

データセット

  • データセットファイル: constitution_qa.jsonl
  • サンプル数: 60 件
  • 最大トークン長: 8192
  • データ形式: JSONL (対話形式)

訓練パラメータ

  • 訓練可能パラメータ: 83,066,880 個
  • 総パラメータ: 2,697,408,768 個
  • 訓練可能割合: 3.0795%
  • エポック数: 3
  • バッチサイズ: 4
  • 学習率: 2e-05
  • データセットサイズ: 60 サンプル
  • 訓練時間: 0:00:22.320532

LoRA設定(該当する場合)

  • LoRA Rank (r): 64
  • LoRA Alpha: 128
  • LoRA Dropout: 0.1
  • 対象モジュール: q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj

使用方法

直接使用(マージ済みモデル)

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM

# モデルとトークナイザーを読み込み
model = AutoModelForCausalLM.from_pretrained(
    "eyepyon/rc3gemma-2-2b-finetuned",
    torch_dtype=torch.float16,
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("eyepyon/rc3gemma-2-2b-finetuned")

# 推論の実行
def generate_response(prompt):
    inputs = tokenizer(prompt, return_tensors="pt")
    with torch.no_grad():
        outputs = model.generate(
            **inputs,
            max_new_tokens=512,
            temperature=0.7,
            do_sample=True,
            pad_token_id=tokenizer.eos_token_id
        )
    response = tokenizer.decode(outputs[0], skip_special_tokens=True)
    return response[len(prompt):]

# 使用例
prompt = "Human: こんにちは!\n\nAssistant: "
response = generate_response(prompt)
print(response)

Ollamaでの使用

# モデルをダウンロード
ollama pull eyepyon/rc3gemma-2-2b-finetuned

# チャット開始
ollama run eyepyon/rc3gemma-2-2b-finetuned

パフォーマンス

このモデルは以下のタスクに特化して訓練されています:

  • 質問応答
  • 対話生成
  • テキスト生成

制限事項

  • このモデルは特定のドメインでファインチューニングされているため、汎用的な用途には適さない場合があります
  • 生成されるテキストの正確性については、使用前に検証することを推奨します
  • バイアスが含まれる可能性があります

倫理的考慮事項

  • このモデルの出力は教育・研究目的での使用を想定しています
  • 有害なコンテンツの生成を避けるため、適切なフィルタリングを実装することを推奨します
  • 商用利用の際は、出力内容について十分な検証を行ってください

引用

@misc{rc3gemma_2_2b_finetuned,
  title={rc3gemma-2-2b-finetuned},
  author={Your Name},
  year={2025},
  publisher={Hugging Face},
  url={https://huggingface.co/eyepyon/rc3gemma-2-2b-finetuned}
}

謝辞

更新履歴

  • v1.0 (2025-06-10): 初回リリース

お問い合わせ

モデルに関する質問や改善提案がございましたら、リポジトリのIssueまでお気軽にご連絡ください。

Downloads last month
24
Safetensors
Model size
2.61B params
Tensor type
FP16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for eyepyon/rc3gemma-2-2b-finetuned

Base model

google/gemma-2-2b
Finetuned
(524)
this model

Space using eyepyon/rc3gemma-2-2b-finetuned 1