https://huggingface.co/llm-book/bert-base-japanese-v3-marc_ja with ONNX weights to be compatible with Transformers PHP
bert-base-japanese-v3-marc_ja
「大規模言語モデル入門」の第5章で紹介している(感情分析)のモデルです。 cl-tohoku/bert-base-japanese-v3をJGLUEのMARC-jaデータセットでファインチューニングして構築されています。
関連リンク
使い方
from transformers import pipeline
text_classification_pipeline = pipeline(model="llm-book/bert-base-japanese-v3-marc_ja")
print(text_classification_pipeline("世界には言葉がわからなくても感動する音楽がある。")[0])
# {'label': 'positive', 'score': 0.9993619322776794}
ライセンス
Apache License 2.0
Note: Having a separate repo for ONNX weights is intended to be a temporary solution until WebML gains more traction. If you would like to make your models web-ready, we recommend converting to ONNX using 🤗 Optimum and structuring your repo like this one (with ONNX weights located in a subfolder named onnx
).
- Downloads last month
- 20
Inference API (serverless) does not yet support Transformers PHP models for this pipeline type.