ZFT-Community-8B

模型简介 (Model Overview) ZFT-Community-8B 是一个开源的大型语言模型,基于 Transformer 架构,拥有 80 亿参数。该模型在中文和英文的混合语料上进行了预训练,旨在支持通用自然语言处理任务,如文本生成、对话系统、问答系统、情感分析等。

作者: huazhixin

模型大小: 8B 参数

许可证: [MIT License]

框架: PyTorch + Hugging Face Transformers

权重格式: safetensors

模型用途 (Intended Use)

✅ 推荐用途 自然语言生成(NLG)

智能对话系统

文本摘要、扩写

问答系统

情感分类

❌ 非推荐用途 生成虚假新闻或误导性信息

自动化决策的法律、医疗场景

任何违反法律法规的用途

模型架构 (Architecture) 类型: 基于 Transformer 的自回归语言模型

参数量: 8B

Tokenizer: Qwen tokenizer

训练框架: PyTorch + Hugging Face Accelerate

文件格式: Safetensors

训练数据 (Training Data) 使用 多源公开数据集(包括通用网页文本、百科内容、新闻数据)

总规模:约 200GB 干净文本

数据清理策略:去重、过滤低质量文本、字符规范化

不包含用户隐私数据

性能评估 (Evaluation) 该模型尚未经过 Open-LLM Leaderboard 官方评测,以下为开发者自测结果(如有):

Perplexity (PPL): 10.5

文本生成: 高可读性,对中文和英文均有较好表现

已测试任务: 问答、摘要、翻译(仅小规模实验)

👉 未来计划: 提交至 Open-LLM Leaderboard,支持标准基准(MMLU、ARC、TruthfulQA、HellaSwag 等)。

局限性 (Limitations) 对专业领域(医学、法律等)表现较弱

在长文本推理和逻辑一致性方面有改进空间

多语言支持有限,中文/英文效果最佳

偏差与伦理 (Bias and Ethical Considerations) 可能存在训练语料带来的隐性偏差

不应将模型用于可能带来伤害的场景

需结合人工审核,避免模型输出敏感或有害内容

许可证 (License) MIT License

用户可自由使用、修改、分发模型,但需遵守相关法律法规,不得用于恶意用途

使用方法 (How to Use) python 复制 编辑 from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "huazhixin-520/ZFT-Community-8B"

加载模型

tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto")

推理示例

input_text = "介绍一下大语言模型的原理。" inputs = tokenizer(input_text, return_tensors="pt").to(model.device) outputs = model.generate(**inputs, max_length=200)

print(tokenizer.decode(outputs[0], skip_special_tokens=True)) 引用 (Citation) 如果你使用本模型,请引用:

复制 编辑 @misc{zftcommunity8b, title = {ZFT-Community-8B: An Open-Source 8B Parameter Language Model}, author = {huazhixin}, year = {2025}, url = {https://huggingface.co/huazhixin-520/ZFT-Community-8B} }

✅ 下一步:

将此模型卡复制到 Hugging Face 项目的 README.md 或 Model Card 部分。

必须补充 Open-LLM Leaderboard 要求的字段:Model Name, Organization, License, Parameter Count, Evaluation Results,并附带 Hugging Face 链接。

是否需要我帮你直接生成符合 Open-LLM Leaderboard 官方模板的 YAML/Markdown 提交文件?(可以直接上传到 submission 格式)

Downloads last month
14
Safetensors
Model size
8.19B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for huazhixin-520/ZFT-Community-8B

Base model

Qwen/Qwen3-8B-Base
Finetuned
(81)
this model
Quantizations
1 model

Dataset used to train huazhixin-520/ZFT-Community-8B