多机拉起DeepSeek-R1模型服务化后,发送推理请求,返回内容乱码
2025/03/07
1.3k
问题信息
问题来源 | 产品大类 | 关键字 |
---|---|---|
现网 | 模型推理 | TLS,HCCL,AllReduce,通信,DeepSeek,推理 |
问题现象描述
四机部署deepseekR1,启服务后发送推理请求,返回内容乱码,没有报错,例如下图:
原因分析
用户使用的模型配置文件和官网文件有差异,导致返回异常。
解决措施
- 模型权重目录里的所有配置文件请与ModelScope,HuggingFace等官方网站所上传的权重等文件进行对比。
- 把模型权重目录里的所有配置文件和官网上的文件对齐之后,只修改config.json中的 model_type 更改为 deepseekv2(只有这一处修改),推理返回正常。