多模态模型推理时报错:Qwen2VL/Qwen2.5VL_VIT_graph nodes[1] infershape fail.
问题描述
多模态模型进行推理时出现类似以下报错提示:
[standard_model.py:188] : [Model] >>> global rank-2 Execute type:1, Exception:Qwen25VL_VIT_graph nodes[1] infershape fail, enable log: export ASDOPS_LOG_LEVEL=ERROR, export ASDOPS_LOG_TO_STDOUT=1
或者:
[error] [1256320] [operation_base.cpp:273] Qwen25VL_VIT_layer_0_graph infer shape fail, error code: 8
原因分析
- 使用的模型在当前版本可能不支持该硬件环境。
- 输入shape过大,selfattention算子不支持。
父主题: FAQ
