Edit model card

https://huggingface.co/llm-book/bert-base-japanese-v3-marc_ja with ONNX weights to be compatible with Transformers PHP

bert-base-japanese-v3-marc_ja

大規模言語モデル入門」の第5章で紹介している(感情分析)のモデルです。 cl-tohoku/bert-base-japanese-v3JGLUEのMARC-jaデータセットでファインチューニングして構築されています。

関連リンク

使い方

from transformers import pipeline

text_classification_pipeline = pipeline(model="llm-book/bert-base-japanese-v3-marc_ja")
print(text_classification_pipeline("世界には言葉がわからなくても感動する音楽がある。")[0])
# {'label': 'positive', 'score': 0.9993619322776794}

ライセンス

Apache License 2.0

Note: Having a separate repo for ONNX weights is intended to be a temporary solution until WebML gains more traction. If you would like to make your models web-ready, we recommend converting to ONNX using 🤗 Optimum and structuring your repo like this one (with ONNX weights located in a subfolder named onnx).

Downloads last month
20
Inference Examples
Inference API (serverless) does not yet support Transformers PHP models for this pipeline type.

Dataset used to train masato12/bert-base-japanese-v3-marc_ja