动态Batch(设置Batch档位)
基本原理
若模型推理时包含动态Batch特性,在模型推理时,需调用AscendCL提供的接口设置模型推理时需使用的batch size,模型支持的batch size已提前在构建模型时配置(使用ATC工具的dynamic_batch_size参数)。

- 对同一个模型,aclmdlSetDynamicBatchSize接口、aclmdlSetDynamicHWSize接口和aclmdlSetInputDynamicDims接口,只能调用其中一个接口。
- 申请模型推理的输出内存时,可以按照各档位的实际大小申请内存,也可以调用aclmdlGetOutputSizeByIndex接口获取内存大小后再申请内存(建议使用该方式,确保内存足够)。
- 动态AIPP和动态Batch同时使用时:
- 调用aclmdlCreateAIPP接口设置batchSize时,batchSize要设置为最大batch size。
- 模型中需要进行动态AIPP处理的data节点,其对应的输入内存大小需按照最大Batch来申请。
示例代码
调用接口后,需增加异常处理的分支,并记录报错日志、提示日志,此处不一一列举。以下是关键步骤的代码示例,不可以直接拷贝编译运行,仅供参考。
// 1.模型加载,加载成功后,再设置动态Batch // ...... // 2.准备模型描述信息modelDesc_,准备模型的输入数据input_和模型的输出数据output_ // ...... // 3.自定义函数,设置动态Batch int ModelSetDynamicInfo() { size_t index; // 3.1 获取动态Batch输入的index,标识动态Batch输入的输入名称固定为ACL_DYNAMIC_TENSOR_NAME aclError ret = aclmdlGetInputIndexByName(modelDesc_, ACL_DYNAMIC_TENSOR_NAME, &index); // 3.2 设置Batch // modelId_表示加载成功的模型的ID,input_表示aclmdlDataset类型的数据,index表示标识动态Batch输入的输入index,batchSize表示Batch数(此处以8为例) uint64_t batchSize = 8; ret = aclmdlSetDynamicBatchSize(modelId_, input_, index, batchSize); // ...... } // 4.自定义函数,执行模型 int ModelExecute(int index) { aclError ret; // 4.1 调用自定义函数,设置动态Batch ret = ModelSetDynamicInfo(); // 4.2 执行模型,modelId_表示加载成功的模型的ID,input_和output_分别表示模型的输入和输出 ret = aclmdlExecute(modelId_, input_, output_); // ...... } // 5.处理模型推理结果 // TODO
父主题: 模型动态Shape输入推理