该模型是基于bert-base-chinese微调的分类模型,该模型可以用于实现文本分类、实体识别等任务。
它是一个基于Transformer架构的中文预训练模型,使用了大量的中文语料进行训练。bert-base-chinese具有12层的Transformer编码器,包含约110万个参数。它在多个中文自然语言处理任务上表现出色,如文本分类、命名实体识别和情感分析等。
其主要用来中医问题路由对应的数据库
Files info