YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

Model Card for llm-jp-3-13b-finetune

モデルの基本情報

  • 開発者: 個人開発者
  • モデルタイプ: LLM (Large Language Model)
  • 使用言語: 日本語
  • ライセンス: Apache 2.0
  • ベースモデル: ELYZA-japanese-Llama-2-13b-instruct

トレーニングの詳細

使用したデータセット

  • ichikara-instruction データセット
  • データ形式: JSONL
  • データ数: 約8,000サンプル

トレーニング手順

  • LoRAによるファインチューニング
  • エポック数: 1
  • バッチサイズ: 1
  • 勾配蓄積ステップ: 8

ハイパーパラメータ

learning_rate: 4e-5
warmup_steps: 50
max_steps: -1
save_steps: 50
logging_steps: 50

学習環境

  • Google Colaboratory Pro+
  • GPU: NVIDIA A100 (40GB)
  • VRAM使用量: 約22GB

評価結果

テストデータ

  • ichikara-instruction テストセット

評価指標

  • Training Loss
  • 最終的な損失値: 1.92台

パフォーマンス結果

  • 学習時間: 約3時間
  • イテレーション速度: 0.59 it/s

技術仕様

モデルアーキテクチャ

  • ベース: Llama-2アーキテクチャ
  • パラメータ数: 13B
  • LoRAランク: 8

計算インフラ

  • フレームワーク: PyTorch
  • 量子化: BF16
  • メモリ最適化: gradient_checkpointing

ハードウェア/ソフトウェア要件

  • 最小GPU要求: 24GB VRAM
  • Python 3.10
  • transformers
  • peft
  • accelerate
  • bitsandbytes

制限事項と注意点

  • 長文生成時にメモリ使用量が増加する可能性がある
  • プロンプトの最適化が必要
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no library tag.