Update README.md
Browse files
README.md
CHANGED
|
@@ -1,7 +1,25 @@
|
|
| 1 |
---
|
| 2 |
-
license: apache-2.0
|
| 3 |
language:
|
| 4 |
- zh
|
| 5 |
base_model:
|
| 6 |
- THUDM/glm-4-9b-chat
|
| 7 |
-
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
---
|
|
|
|
| 2 |
language:
|
| 3 |
- zh
|
| 4 |
base_model:
|
| 5 |
- THUDM/glm-4-9b-chat
|
| 6 |
+
---
|
| 7 |
+
|
| 8 |
+
<p align="center">
|
| 9 |
+
<br>
|
| 10 |
+
<img src="https://cdn-uploads.huggingface.co/production/uploads/6432aafcfc29acb96be5943f/7drid1rx8sP8hVUv4_z-m.png" style="width:50%;" />
|
| 11 |
+
</p>
|
| 12 |
+
|
| 13 |
+
# 政法智言大模型v1.0(Lexipolis-9B-Chat)
|
| 14 |
+
|
| 15 |
+
## 模型简介
|
| 16 |
+
|
| 17 |
+
**政法智言大模型v1.0** **(_Lexipolis-9B-Chat_)** 由清华大学THUDM开源的`GLM-4-9B-Chat`微调得到。
|
| 18 |
+
|
| 19 |
+
采用LoRA算法进行微调:微调过程包括增量预训练与指令微调,其中增量训练使用的数据集包含涉政新闻、工作汇报、国家法律法规条文、领导人讲话语录、政法课程教材、公文、国家部门章程,数据量约1GB。
|
| 20 |
+
|
| 21 |
+
指令微调使用的数据包含案件审判(案件事实与审判结果对齐)、法条引用(案件事实与法条引用对齐)、指令理解语料(撰写“涉政新闻”的指令与涉政新闻内容对齐等),数据量约550MB。
|
| 22 |
+
|
| 23 |
+
## 项目团队人员
|
| 24 |
+
|
| 25 |
+
齐鲁工业大学(山东省科学院)计算机科学与技术学部 杜宇([email protected])
|