DeepSeek-R1-Safe是由浙江大学网络空间安全学院和华为合作的基于DeepSeek衍生的安全大模型,在华为昇腾芯片和MindSpeedLLM等框架的基础上开发。
该模型的训练流程如下:
训练数据生成:构建安全、合规的数据集
安全监督训练:在训练过程中引入安全约束
安全强化学习:通过 RLHF 等方法优化模型行为
模型性能评测:对安全性能和通用性能进行全面评估
本仓库发布了相关流程介绍,为研究者和开发者提供参考和实践基础。
📚 项目介绍
🛡️ 安全语料
我们基于国内外法律法规与核心价值观,构建了中英文双语的安全语料。其中语料不仅包含了带有安全思维链的标注,还提供了相应的安全回复,可用于大模型的安全训练、微调以及测试。
🔒 安全模型
我们开源了经过安全训练的DeepSeek-R1满血版模型。该模型在保持推理性能的同时,显著提升了安全性与合规性。
模型权重已托管在modelscope魔搭社区上,研究者与开发者可通过以下链接进行访问:
📁 文件结构
DeepSeek-R1-Safe
├── Code # directory for code
│ ├── MindSpeed-LLM # directory of the specific version of MindSpeed-LLM
├── scripts # contains running scripts
│ ├── generate_deepseekr1safe_ptd.sh
└── README.md
运行推理
💻 所需硬件环境
运行DeepSeek-R1-Safe推理需要至少8台Atlas 800T A2服务器
🤖 环境配置
DeepSeek-R1-Safe 的环境依赖如下表所示,具体安装指导请参考:安装指导
依赖软件 | 版本 |
---|---|
昇腾NPU驱动 昇腾NPU固件 |
在研版本 |
Toolkit(开发套件) Kernel(算子包) NNAL(Ascend Transformer Boost加速库) |
在研版本 |
Python | 3.10 |
PyTorch | 2.6 |
torch_npu插件 apex |
在研版本 |
请将链接中指定版本的MindSpeed-LLM仓库置于Code/MindSpeed-LLM。
🚀 运行推理脚本
在配置好环境后,请依次在8台服务器上按照实际运行环境修改推理脚本中的包括但不限于主节点IP、路径等各种参数以及对应的NODE_RANK(从0-7编号,编号0为主节点)
随后在8台服务器上同时运行推理脚本
💡 测试示例