基于香橙派AI Studio的DeepSeek-R1-Distill-Qwen-14B聊天机器人案例
发表于 2025/07/24
1. 引言
本案例基于香橙派AI Studio 176T 48GB扩展坞,采用MindIE推理加速套件部署DeepSeek-R1-Distill-Qwen-14B模型,构建了具备实时对话能力的网页端聊天机器人。本案例的实验环境请参考在线课程:《开箱实测OrangePi AI Studio》
2.实验环境
硬件配置:
| 配件名称 | 描述 | 规格要求 | 
|---|---|---|
| 香橙派AI Studio | 提供AI算力 | - 算力:176 TOPS INT8  - 内存:48GB/96GB  | 
| 电脑主机 | 运行系统并连接香橙派 | - x86_64架构  - 16线程+ CPU - 64GB+内存 - USB4/雷电4(支持PCIe隧道,40Gbps) - 系统:Ubuntu 22.04(Linux 5.15内核)  | 
| USB4数据线 | 连接香橙派和电脑 | - 40Gbps带宽  - 雷电4兼容 - 支持PCIe隧道  | 
| 显示器、鼠标、键盘、HDMI连接线 | 连接电脑,提供人机交互 | - HDMI显示器  - USB键鼠  | 
系统环境:
| 名称 | 版本 | 
|---|---|
| Ubuntu系统 | 22.04.5-desktop-amd64 | 
| Ascend-cann-toolkit | 8.0.0.beta1 | 
| Ascend-cann-kernels-310* | 8.0.0.beta1 | 
| Ascend-mindxsdk-mxvision | 6.0.0.SPC1 | 
| python3 | 3.10.12 | 
| MindIE docker镜像 | 1.0.0-300I-Duo-py311-openeuler24.03-lts | 
请参考在线课程:《开箱实测OrangePi AI Studio》,完成上述软件环境的安装,并完成以下MindIE的环境配置:
- 安装docker软件
 - 下载昇腾docker镜像
 - 创建docker镜像
 - 打修复补丁
 
3.实验步骤
3.1 DeepSeek-R1-Distill-Qwen-14B测试案例
3.1.1 下载DeepSeek-R1-Distill-Qwen-14B模型权重
步骤 1 在物理机上,进入root用户执行:
在物理机上,下载DeepSeek-R1-Distill-Qwen-14B模型权重,将其放到/models目录下。
su root
cd /models
apt install -y git-lfs
git clone --depth=1 https://modelers.cn/XLRJ/DeepSeek-R1-Distill-Qwen-14B
git clone https://modelers.cn/XLRJ/DeepSeek-R1-Distill-Qwen-14B.git 
步骤 2 校验模型权重文件完整性:
cd /models/DeepSeek-R1-Distill-Qwen-14B生成官方校验文件:
git lfs ls-files -l | awk '{print $1" "$3}' > large_files.sha256比对本地文件哈希值:
sha256sum -c large_files.sha256输出OK:文件完整。输出FAILED:文件损坏需重新下载。
3.1.2 物理机加SWAP内存
请保证物理内存加SWAP内存大于64GB,不然转换权重和执行推理程序时会由于内存不够而退出。
步骤 1 在物理机上查询总内存大小,也就是“total”相加。
free -h
步骤 2 如果内存不够,加64GB SWAP内存
以下是增加64GB SWAP内存的示例代码。
*注意:请在物理机上执行,不支持在docker容器内执行。
fallocate -l 64G /swap_model
chmod 600 /swap_model
mkswap /swap_model
swapon /swap_model
# 使用完成后可以使用下面的命令释放空间
swapoff /swap_model
rm /swap_model3.1.3 进入docker容器
步骤 1 查看docker容器的状态
使用docker ps -a 命令查询docker容器的信息,其中STATUS表示容器状态,Exited为关闭状态,Up为开启状态。
docker ps -a输出示例:
CONTAINER ID   IMAGE         COMMAND       CREATED              STATUS                             PORTS     NAMES
e1e2d0e10b96   74a5b9615370   "bash"      54 minutes ago       Exited (137) 8 seconds ago                    mindIE步骤 2 启动docker容器
如果容器状态为Exited,需要先启动docker;如果容器状态为Up,则可以直接进入docker容器。
docker start mindIE步骤 3 进入docker容器
docker exec -it mindIE bash3.1.4 设置docker的环境变量
步骤 1 进入docker容器,使用下面的命令使能CANN和MindIE相关的环境变量:
source /usr/local/Ascend/ascend-toolkit/set_env.sh
source /usr/local/Ascend/nnal/atb/set_env.sh
source /usr/local/Ascend/mindie/set_env.sh
source /usr/local/Ascend/atb-models/set_env.sh步骤 2 使用chown命令将/models/DeepSeek-R1-Distill-Qwen-14B目录及其所有文件的所有者和组更改为root用户和root组:
chown root:root -R  /models/DeepSeek-R1-Distill-Qwen-14B3.1.5 DeepSeek-R1-Distill-Qwen-14B模型推理
步骤 1 在docker内,推理DeepSeek-R1-Distill-Qwen-14B模型的命令如下所示:
cd $ATB_SPEED_HOME_PATH
torchrun --nproc_per_node 1 --master_port 20037 -m examples.run_pa --model_path /models/DeepSeek-R1-Distill-Qwen-14B/ --max_output_length 256步骤 2 推理成功后,在输出的最后,可以找到Question和Answer,结果如下所示:

3.2 MindIE Service的使用方法
下面以DeepSeek-R1-Distill-Qwen-14B模型为例,演示MindIE Service的使用方法。其他模型的只需要修改MindIE 配置中的modelWeightPath参数,其余步骤一致。
3.2.1 修改配置文件
步骤 1 进入docker环境下的mindie-service文件夹,修改conf/config.json中的配置:
cd /usr/local/Ascend/mindie/latest/mindie-service
vim conf/config.json以下列出的是必须修改的配置项,其他的参数请参考官方文档。
-  “httpsEnabled”我们设置成false,否则需要先导入https相关的证书才能启动MindIE Server服务。
 -  "npuDeviceIds" 因为我们只有一个推理Device,因此设置为0。
 -  “modelName”是后续调用MindIE Server服务时会用到的模型名称。
 -  “modelWeightPath”参数是模型路径,和上一步中推理时的模型路径保持一致,以下是DeepSeek-R1-Distill-Qwen-14B的例子。
 -  "worldSize" 因为我们只有一个推理Device,因此设置为1。
 -  "trustRemoteCode"设置为true,信任远程代码,否则有些模型无法启动。
 
例如:
"httpsEnabled" : false,
"npuDeviceIds" : [[0]],
"modelName" : "DeepSeek-R1-Distill-Qwen-14B",
"modelWeightPath" : "/models/DeepSeek-R1-Distill-Qwen-14B",
"worldSize" : 1,
"trustRemoteCode" : true注意:确保“ipAddress”为“127.0.0.1”,“port” 字段为“1025”。
步骤 2 修改模型目录下的config.json文件的权限为640,否则无法启动server服务:
chmod 640 /models/DeepSeek-R1-Distill-Qwen-14B/config.json3.2.2 启动MindIE Server服务
./bin/mindieservice_daemon如果最后输出Daemon start success! 说明MindIE Server服务启动成功。
3.2.3 测试MindIE Server服务
MindIE Server服务启动后,可以使用curl命令测试下服务是否能正常使用。
新建终端,在物理机的普通用户输入以下命令进行测试:
sudo apt update && sudo apt install -y curl
curl -w "\ntime_total=%{time_total}\n" \
     -H "Accept: application/json" \
     -H "Content-type: application/json" \
     -X POST \
     -d '{
         "inputs": "I love Beijing, because",
         "stream": false
     }' \
     http://127.0.0.1:1025/generate输出示例:
{"generated_text":"it is a city of contrasts. It is a city of the old and the new, the"}
time_total=1.2110293.3 聊天机器人
聊天机器人案例通过调用MindIE Server服务化接口实现。当前支持文本形式的聊天和根据上下文内容生成回复。
3.3.1 下载聊天机器人代码包
首先下载案例代码到运行推理服务的电脑的“/data”目录。
cd /data/
git clone https://gitee.com/orangepi-xunlong/chat_robot.git3.3.2 安装依赖
cd /data/chat_robot
pip3 install -r requirements.txt -i  https://mirrors.huaweicloud.com/repository/pypi/simple3.3.3 启动主程序
python3 main.py启动后,会打印如下信息,复制其中的url到浏览器打开。
- 首先程序会自动查询当前设备上MindIE中运行的模型信息,并打印出来。
 - 如果提示暂不支持,请核对MindIE Server中的“modelName”字段。
 - 然后等一会就会打印两个IP地址。第一个url只能在启动主程序的电脑上访问,第二个url可以通过和启动主程序的电脑同一网络下的设备访问。
 
输出示例:
检测到mindie server中启动了DeepSeek-R1-Distill-Qwen-14B模型。
 * Serving Flask app 'main'
 * Debug mode: off
WARNING: This is a development server. Do not use it in a production deployment. Use a production WSGI server instead.
 * Running on all addresses (0.0.0.0)
 * Running on http://127.0.0.1:5000
 * Running on http://10.31.3.139:5000
Press CTRL+C to quit
3.3.4 浏览器打开IP地址
以http://127.0.0.1:5000为例,复制到浏览器并打开。
打开后我们可以看到下面这个页面:

3.3.5 使用聊天机器人
在下方文本框中输入问题,并点击右侧箭头图标即可提问。




