昇腾社区首页
中文
注册
基于香橙派AI Studio的DeepSeek-R1-Distill-Qwen-14B聊天机器人案例

基于香橙派AI Studio的DeepSeek-R1-Distill-Qwen-14B聊天机器人案例

香橙派DeepSeekMindIEAI Studio

发表于 2025/07/24

1. 引言

本案例基于香橙派AI Studio 176T 48GB扩展坞,采用MindIE推理加速套件部署DeepSeek-R1-Distill-Qwen-14B模型,构建了具备实时对话能力的网页端聊天机器人。本案例的实验环境请参考在线课程:开箱实测OrangePi AI Studio

2.实验环境

硬件配置:

配件名称描述规格要求
香橙派AI Studio提供AI算力- 算力:176 TOPS INT8
- 内存:48GB/96GB
电脑主机运行系统并连接香橙派- x86_64架构
- 16线程+ CPU - 64GB+内存
- USB4/雷电4(支持PCIe隧道,40Gbps)
- 系统:Ubuntu 22.04(Linux 5.15内核)
USB4数据线连接香橙派和电脑- 40Gbps带宽
- 雷电4兼容
- 支持PCIe隧道
显示器、鼠标、键盘、HDMI连接线连接电脑,提供人机交互- HDMI显示器
- USB键鼠

系统环境:

名称版本
Ubuntu系统22.04.5-desktop-amd64
Ascend-cann-toolkit8.0.0.beta1
Ascend-cann-kernels-310*8.0.0.beta1
Ascend-mindxsdk-mxvision6.0.0.SPC1
python33.10.12
MindIE docker镜像1.0.0-300I-Duo-py311-openeuler24.03-lts

请参考在线课程:开箱实测OrangePi AI Studio,完成上述软件环境的安装,并完成以下MindIE的环境配置:

  1. 安装docker软件
  2. 下载昇腾docker镜像
  3. 创建docker镜像
  4. 打修复补丁



3.实验步骤

3.1 DeepSeek-R1-Distill-Qwen-14B测试案例

3.1.1 下载DeepSeek-R1-Distill-Qwen-14B模型权重

步骤 1 在物理机上,进入root用户执行:

在物理机上,下载DeepSeek-R1-Distill-Qwen-14B模型权重,将其放到/models目录下。

su root
cd /models
apt install -y git-lfs
git clone --depth=1 https://modelers.cn/XLRJ/DeepSeek-R1-Distill-Qwen-14B
git clone https://modelers.cn/XLRJ/DeepSeek-R1-Distill-Qwen-14B.git 

步骤 2 校验模型权重文件完整性:

cd /models/DeepSeek-R1-Distill-Qwen-14B

生成官方校验文件:

git lfs ls-files -l | awk '{print $1" "$3}' > large_files.sha256

比对本地文件哈希值:

sha256sum -c large_files.sha256

输出OK:文件完整。输出FAILED:文件损坏需重新下载。

3.1.2 物理机加SWAP内存

请保证物理内存加SWAP内存大于64GB,不然转换权重和执行推理程序时会由于内存不够而退出。

步骤 1 在物理机上查询总内存大小,也就是“total”相加。

free -h

步骤 2 如果内存不够,加64GB SWAP内存

以下是增加64GB SWAP内存的示例代码。

*注意:请在物理机上执行,不支持在docker容器内执行。

fallocate -l 64G /swap_model
chmod 600 /swap_model
mkswap /swap_model
swapon /swap_model

# 使用完成后可以使用下面的命令释放空间
swapoff /swap_model
rm /swap_model

3.1.3 进入docker容器

步骤 1 查看docker容器的状态

使用docker ps -a 命令查询docker容器的信息,其中STATUS表示容器状态,Exited为关闭状态,Up为开启状态。

docker ps -a

输出示例:

CONTAINER ID   IMAGE         COMMAND       CREATED              STATUS                             PORTS     NAMES
e1e2d0e10b96   74a5b9615370   "bash"      54 minutes ago       Exited (137) 8 seconds ago                    mindIE

步骤 2 启动docker容器

如果容器状态为Exited,需要先启动docker;如果容器状态为Up,则可以直接进入docker容器。

docker start mindIE

步骤 3 进入docker容器

docker exec -it mindIE bash

3.1.4 设置docker的环境变量

步骤 1 进入docker容器,使用下面的命令使能CANN和MindIE相关的环境变量:

source /usr/local/Ascend/ascend-toolkit/set_env.sh
source /usr/local/Ascend/nnal/atb/set_env.sh
source /usr/local/Ascend/mindie/set_env.sh
source /usr/local/Ascend/atb-models/set_env.sh

步骤 2 使用chown命令将/models/DeepSeek-R1-Distill-Qwen-14B目录及其所有文件的所有者和组更改为root用户和root组:

chown root:root -R  /models/DeepSeek-R1-Distill-Qwen-14B

3.1.5 DeepSeek-R1-Distill-Qwen-14B模型推理

步骤 1 在docker内,推理DeepSeek-R1-Distill-Qwen-14B模型的命令如下所示:

cd $ATB_SPEED_HOME_PATH
torchrun --nproc_per_node 1 --master_port 20037 -m examples.run_pa --model_path /models/DeepSeek-R1-Distill-Qwen-14B/ --max_output_length 256

步骤 2 推理成功后,在输出的最后,可以找到Question和Answer,结果如下所示:

3.2 MindIE Service的使用方法

下面以DeepSeek-R1-Distill-Qwen-14B模型为例,演示MindIE Service的使用方法。其他模型的只需要修改MindIE 配置中的modelWeightPath参数,其余步骤一致。

3.2.1 修改配置文件

步骤 1 进入docker环境下的mindie-service文件夹,修改conf/config.json中的配置:

cd /usr/local/Ascend/mindie/latest/mindie-service
vim conf/config.json

以下列出的是必须修改的配置项,其他的参数请参考官方文档。

  •  “httpsEnabled”我们设置成false,否则需要先导入https相关的证书才能启动MindIE Server服务。
  •  "npuDeviceIds" 因为我们只有一个推理Device,因此设置为0。
  •  “modelName”是后续调用MindIE Server服务时会用到的模型名称。
  •  “modelWeightPath”参数是模型路径,和上一步中推理时的模型路径保持一致,以下是DeepSeek-R1-Distill-Qwen-14B的例子。
  •  "worldSize" 因为我们只有一个推理Device,因此设置为1。
  •  "trustRemoteCode"设置为true,信任远程代码,否则有些模型无法启动。

例如:

"httpsEnabled" : false,
"npuDeviceIds" : [[0]],
"modelName" : "DeepSeek-R1-Distill-Qwen-14B",
"modelWeightPath" : "/models/DeepSeek-R1-Distill-Qwen-14B",
"worldSize" : 1,
"trustRemoteCode" : true

注意:确保“ipAddress”为“127.0.0.1”,“port” 字段为“1025”。

步骤 2 修改模型目录下的config.json文件的权限为640,否则无法启动server服务:

chmod 640 /models/DeepSeek-R1-Distill-Qwen-14B/config.json

3.2.2 启动MindIE Server服务

./bin/mindieservice_daemon

如果最后输出Daemon start success!  说明MindIE Server服务启动成功。

3.2.3 测试MindIE Server服务

MindIE Server服务启动后,可以使用curl命令测试下服务是否能正常使用。

新建终端,在物理机的普通用户输入以下命令进行测试:

sudo apt update && sudo apt install -y curl
curl -w "\ntime_total=%{time_total}\n" \
     -H "Accept: application/json" \
     -H "Content-type: application/json" \
     -X POST \
     -d '{
         "inputs": "I love Beijing, because",
         "stream": false
     }' \
     http://127.0.0.1:1025/generate

输出示例:

{"generated_text":"it is a city of contrasts. It is a city of the old and the new, the"}
time_total=1.211029

3.3 聊天机器人

聊天机器人案例通过调用MindIE Server服务化接口实现。当前支持文本形式的聊天和根据上下文内容生成回复。

3.3.1 下载聊天机器人代码包

首先下载案例代码到运行推理服务的电脑的“/data”目录。

cd /data/
git clone https://gitee.com/orangepi-xunlong/chat_robot.git

3.3.2 安装依赖

cd /data/chat_robot
pip3 install -r requirements.txt -i  https://mirrors.huaweicloud.com/repository/pypi/simple

3.3.3 启动主程序

python3 main.py

启动后,会打印如下信息,复制其中的url到浏览器打开。

  • 首先程序会自动查询当前设备上MindIE中运行的模型信息,并打印出来。
  • 如果提示暂不支持,请核对MindIE Server中的“modelName”字段。
  • 然后等一会就会打印两个IP地址。第一个url只能在启动主程序的电脑上访问,第二个url可以通过和启动主程序的电脑同一网络下的设备访问。

输出示例:

检测到mindie server中启动了DeepSeek-R1-Distill-Qwen-14B模型。
 * Serving Flask app 'main'
 * Debug mode: off
WARNING: This is a development server. Do not use it in a production deployment. Use a production WSGI server instead.
 * Running on all addresses (0.0.0.0)
 * Running on http://127.0.0.1:5000
 * Running on http://10.31.3.139:5000
Press CTRL+C to quit

3.3.4 浏览器打开IP地址

以http://127.0.0.1:5000为例,复制到浏览器并打开。

打开后我们可以看到下面这个页面:

3.3.5 使用聊天机器人

在下方文本框中输入问题,并点击右侧箭头图标即可提问。



本页内容