File size: 3,911 Bytes
de4e5fb |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 |
# PULSE
[](./LICENSE)
[](./MODEL_LICENSE)
## 目录
- [开源模型](#开源模型)
- [模型介绍](#模型介绍)
- [局限性](#局限性)
- [Elo评测](#Elo评测)
- [推理](#推理)
- [硬件要求](#硬件要求)
- [下载安装](#下载安装)
- [使用示例](#使用示例)
- [致谢](#致谢)
- [开源协议](#开源协议)
----
## 开源模型
- [**PULSE-7bv5**](https://huggingface.co/OpenMEDLab/PULSE-7bv5)
## 模型介绍
- **大规模训练**:PULSE模型在OpenChineseLLaMA 13B模型的基础上,
使用约4,000,000个医学领域和通用领域的SFT数据进行进一步微调。
- **全面的医学自然语言处理任务**:PULSE支持医学领域的各种自然语
言处理任务,包括健康教育、医师考试问题、报告解读、医疗记录结构化
以及模拟诊断和治疗。
### 局限性
由于模型参数量较小和自回归生成范式,尽管模型提供了有关疾病诊断和治疗的推理结果,但这些结果不能代替线下职业医生的建议和治疗方案。所有回答仅供参考,不应作为诊断或治疗的依据。我们强烈建议用户在需要诊断或治疗疾病时,寻求专业医生的帮助和建议。
### Elo评测
| model_name | model_size | MedQA_Mainland | PromptCBLUE | med_detailed_answer | webMedQA | ALL |
|:-------------|:-------------|-----------------:|--------------:|----------------------:|-----------:|--------:|
| GPT4 | 220B*8(?) | 1118.20 | 1166.39 | 1122.20 | 1132.74 | 1243.79 |
| ChatGPT | 175B(?) | 1083.05 | 1102.31 | 1098.38 | 1097.88 | 1149.38 |
| PULSE_14bv5 | 14B | 1003.55 | 1055.56 | 1074.79 | 1074.28 | 1114.23 |
| PULSE_7bv5 | 7B | 1047.35 | 1047.27 | 1029.37 | 1069.40 | 1084.18 |
| QiZhenGPT | 13B | 952.66 | 929.56 | 1076.41 | 1006.85 | 979.94 |
| BianQue | 6B | 927.86 | 922.65 | 1050.22 | 1042.64 | 959.35 |
| Med-ChatGLM | 6B | 989.59 | 928.77 | 882.08 | 856.66 | 869.54 |
| BenTsao | 7B | 954.20 | 933.39 | 815.51 | 856.20 | 809.13 |
| DoctorGLM | 6B | 923.54 | 914.10 | 851.04 | 863.35 | 790.47 |
## 推理
### 硬件要求
下表提供了一个batch size=1时本地部署PULSE进行推理所需的显存大小。
| 量化等级 | 加载模型 |
| -------- | -------- |
| FP16 | 14GB |
### 下载安装
1. 下载本仓库内容至本地/远程服务器
```bash
git clone https://github.com/openmedlab/PULSE
cd PULSE
```
2. 创建conda环境安装依赖
```bash
conda env create -f llm.yml
conda activate llm
```
其中`torch`和`transformers`版本不建议低于推荐版本。
### 使用示例
#### 网页Demo
**Gradio**
```bash
python web_demo_gradio.py
```
#### 命令行Demo
您可以运行仓库中的`cli_demo.py`来启动一个简单的命令行Demo:
```bash
python cli_demo.py
```
## 致谢
- 上海人工智能实验室
- 上海交通大学-清源研究院
- 华东理工大学-自然语言处理与大数据挖掘实验室
## 开源协议
本项目所含代码采用[Apache 2.0](https://github.com/openmedlab/PULSE/blob/main/LICENSE)协议,模型权重采用[GNU AGPL 3.0](https://github.com/openmedlab/PULSE/blob/main/MODEL_LICENSE)协议。如使用本项目所含模型及其修改版本提供服务产生误导性或有害性言论,造成不良影响,由服务提供方负责,与本项目无关。
|