多机拉起DeepSeek-R1模型服务化后,发送推理请求,返回内容乱码
2025/03/07
2.8k
问题信息
| 问题来源 | 产品大类 | 关键字 | 
|---|---|---|
| 现网 | 模型推理 | TLS,HCCL,AllReduce,通信,DeepSeek,推理 | 
问题现象描述
四机部署deepseekR1,启服务后发送推理请求,返回内容乱码,没有报错,例如下图:

原因分析
用户使用的模型配置文件和官网文件有差异,导致返回异常。
解决措施
- 模型权重目录里的所有配置文件请与ModelScope,HuggingFace等官方网站所上传的权重等文件进行对比。
 
- 把模型权重目录里的所有配置文件和官网上的文件对齐之后,只修改config.json中的 model_type 更改为 deepseekv2(只有这一处修改),推理返回正常。
 



