若模型推理时包含动态Batch特性,在模型推理时,需调用AscendCL提供的接口设置模型推理时需使用的Batch数,完整流程请参见模型执行。关键原理说明如下:
对于动态Batch,模型支持的Batch数已提前在构建模型时配置(构建模型的说明请参见模型构建),构建模型成功后,在生成的om模型中,会新增一个输入(下文简称动态Batch输入),在模型推理时通过该新增的输入提供具体的Batch值。
例如,a输入的Batch数是动态的,在om模型中,会有与a对应的b输入来描述a的Batch数。在模型执行时,准备a输入的数据结构请参见准备模型执行的输入/输出数据结构,准备b输入的数据结构、设置b输入的数据请依次参见2、3。
#define ACL_DYNAMIC_TENSOR_NAME "ascend_mbatch_shape_data"
申请动态Batch输入对应的内存后,无需用户设置该内存中的数据(否则可能会导致业务异常),用户调用3.b中的接口后,系统会自动向该内存中填入数据。
此处设置的Batch数只能是构建模型时设置的Batch档位中的某一个。
也可以调用aclmdlGetDynamicBatch接口获取指定模型支持的Batch档位数以及每一档中的Batch数。
例如,调用aclmdlExecute接口(同步接口)执行模型。
调用接口后,需增加异常处理的分支,并记录报错日志、提示日志,此处不一一列举。以下是关键步骤的代码示例,不可以直接拷贝编译运行,仅供参考。
//1.模型加载,加载成功后,再设置动态Batch //...... //2.准备模型描述信息modelDesc_,准备模型的输入数据input_和模型的输出数据output_ //...... //3.自定义函数,设置动态Batch int ModelSetDynamicInfo() { size_t index; //3.1 获取动态Batch输入的index,标识动态Batch输入的输入名称固定为ACL_DYNAMIC_TENSOR_NAME aclError ret = aclmdlGetInputIndexByName(modelDesc_, ACL_DYNAMIC_TENSOR_NAME, &index); //3.2 设置Batch,modelId_表示加载成功的模型的ID,input_表示aclmdlDataset类型的数据,index表示标识动态Batch输入的输入index uint64_t batchSize = 8; ret = aclmdlSetDynamicBatchSize(modelId_, input_, index, batchSize); //...... } //4.自定义函数,执行模型 int ModelExecute(int index) { aclError ret; //4.1 调用自定义函数,设置动态Batch ret = ModelSetDynamicInfo(); //4.2 执行模型,modelId_表示加载成功的模型的ID,input_和output_分别表示模型的输入和输出 ret = aclmdlExecute(modelId_, input_, output_); //...... } //5.处理模型推理结果 //TODO