使用Vision SDK模型推理功能通过给定输入和指定模型,进行推理获得输出结果,支持om格式和MindIR格式的模型推理,可使用ATC工具构建的
相关接口说明请参考Model。
使用模型推理前,用户需准备好输入数据以及需要加载的模型,根据模型路径或者内存方式初始化Model类,通过调用Model类的Infer接口获取模型推理结果。输入数据必须和模型输入数据类型以及格式一致,如果用户自行申请输出数据内存,则输出数据类型和格式需和模型输出保持一致,模型输入输出信息可以通过Model类的相关接口进行查询。
模型推理调用流程参考如下:
关键接口说明如下:
用户需根据实际业务情况确认模型加载方式,可通过以下两种方式传入。
以下为功能特性关键步骤的代码示例,不可以直接拷贝编译运行,仅供参考。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 |
// 初始化 MxBase::MxInit(); { // 输入图像二进制数据, 需用户自行准备 std::string filePath = "./test.bin"; // 读取输入数据到内存 void* dataPtr = ReadTensor(filePath); // 输入数据类型,和模型输入数据类型一致 auto dataType = MxBase::TensorDType::INT32; // 构造输入shape,和模型输入shape一致 std::vector<uint32_t> shape = {1, 128}; // 构造tensor MxBase::Tensor tensor(dataPtr, shape, dataType, 0); // 构造模型输入 std::vector<MxBase::Tensor> inputs{tensor}; // 模型路径,需用户自行指定 std::string modelPath = "./test.om"; // 根据模型路径加载模型 MxBase::Model model(modelPath); // 执行模型推理, outputs即为推理结果 std::vector<MxBase::Tensor> outputs = model.Infer(inputs); } //去初始化 MxBase::MxDeInit(); |
1 2 3 4 |
MxBase::ModelLoadOptV2 mdlLoadOpt; mdlLoadOpt.loadType = ModelLoadOptV2::LOAD_MODEL_FROM_FILE; // 指定模型加载方式 mdlLoadOpt.modelPath = modelPath; MxBase::Model model(mdlLoadOpt); |
使用MindIR模型进行推理与使用om模型推理流程一致,需要注意的是,使用MindIR模型进行推理前,需要用户自行安装MindSpore Lite软件包,并设置环境变量,具体步骤如下。
请关注MindSpore开源社区的漏洞,并及时修复。
1
|
tar -zxvf mindspore-lite-2.4.0-linux-{arch}.tar.gz --no-same-owner |
Arm服务器:
1 2 |
export LD_LIBRARY_PATH={path}/runtime/lib:${LD_LIBRARY_PATH} export LD_LIBRARY_PATH={path}/tools/converter/lib:${LD_LIBRARY_PATH} |
x86_64服务器:
1 2 3 |
export LD_LIBRARY_PATH={path}/runtime/lib:${LD_LIBRARY_PATH} export LD_LIBRARY_PATH={path}/tools/converter/lib:${LD_LIBRARY_PATH} export LD_LIBRARY_PATH={path}/runtime/third_party/dnnl:${LD_LIBRARY_PATH} |
其中,{path}为MindSpore Lite软件包解压后的路径,请根据实际情况修改。
1
|
echo $LD_LIBRARY_PATH |