YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

概要

EqualFrontiers-iko-v1-Merged は、以下の2つの要素を統合(マージ)して作成されたモデルです。

  1. ベースモデルである SakanaAI/TinySwallow-1.5B-Instruct
  2. もともと EqualFrontiers の合成データを用いた SFT(指示微調整)を施していた katsukiono/EqualFrontiers-iko-v1

このモデルは、EqualFrontiers が運営する受付キャラクター「イコ(Iko)」としての対話を想定しており、ユーザーに対するカジュアルな案内・問い合わせ対応などを行うためにチューニングされています。

特徴

  • ベースモデル: SakanaAI/TinySwallow-1.5B-Instruct
  • 追加学習: EqualFrontiers の合成データを利用した SFT
  • マージ: 上記2つの要素をマージして性能や応答品質を向上
  • 言語: 日本語

学習データ

  • EqualFrontiers のサービスや特徴、キャラクター設定などを元に合成したテキストデータを使用
  • 受付キャラクターが想定されるシナリオ(来客受付・問い合わせ対応など)での会話形式データ

モデルの用途

  • 企業受付・問い合わせ対応: EqualFrontiers の来客対応や基本情報の提供
  • 広報・マーケティング: 企業紹介、サービス説明、雑談などにおける活用
  • 研究・開発: コーポレートキャラクターを活かした自然言語処理の応用事例

使用上の注意

  1. 情報の正確性

    • 本モデルは合成データを用いて学習しているため、最新・正確な情報とは限りません。利用の際には事実確認を行ってください。
  2. 守秘義務・プライバシー

    • 公開されていない機密情報や個人情報を取り扱わないように留意してください。
  3. ライセンス

    • ベースモデルである SakanaAI/TinySwallow-1.5B-Instruct のライセンスに準拠します。
    • 本モデルを利用する際は、必ず該当ライセンスと利用規約を遵守してください。
  4. 倫理的配慮

    • 本モデルが生成するテキストは、差別的・有害な表現を含む可能性があります。
    • 不適切な表現を含む場合は、フィルタリングや監視を行い、慎重にご利用ください。

推奨動作環境・依存関係

  • ベースモデルの推奨環境に準じます(SakanaAI/TinySwallow-1.5B-Instruct を参照)。
  • 推論時のメモリ使用量は、約 1.5B パラメータ相当を想定。
  • Python 環境における transformers, torch などのライブラリが必要です。

簡単な使用例

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "katsukiono/EqualFrontiers-iko-v1-Merged"

tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

prompt = "こんにちは!"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=100, do_sample=True, top_p=0.9)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)

print(response)
  • 受付キャラクター「イコ」との対話を想定しており、プロンプト内で会話形式の指示を与えると自然な応答を生成します。
  • max_new_tokenstop_p などのパラメータを調整して、生成テキストの長さや多様性を制御できます。

今後の計画

  • EqualFrontiers に関する最新情報の追加学習や、問い合わせ対応精度向上のための継続的なアップデートを予定しています。
Downloads last month
4
Safetensors
Model size
1.54B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for katsukiono/EqualFrontiers-iko-v1-Merged

Quantizations
1 model