动态Batch

基本原理

若模型推理时包含动态Batch特性,在模型推理时,需调用AscendCL提供的接口设置模型推理时需使用的Batch数,完整流程请参见模型执行。关键原理说明如下:

  1. 加载模型。模型加载的详细流程,请参见模型加载,模型加载成功后,返回标识模型的ID。

    对于动态Batch,模型支持的Batch数已提前在构建模型时配置(构建模型的说明请参见模型构建),构建模型成功后,在生成的om模型中,会新增一个输入(下文简称动态Batch输入),在模型推理时通过该新增的输入提供具体的Batch值。

    例如,a输入的Batch数是动态的,在om模型中,会有与a对应的b输入来描述a的Batch数。在模型执行时,准备a输入的数据结构请参见准备模型执行的输入/输出数据结构,准备b输入的数据结构、设置b输入的数据请依次参见23

  2. 创建aclmdlDataset类型的数据,用于描述模型执行的输入、输出,详细调用流程请参见准备模型执行的输入/输出数据结构
    其中,动态Batch输入的注意点如下:
    1. 申请动态Batch输入对应的内存前,需要先调用aclmdlGetInputIndexByName接口根据输入名称(固定为ACL_DYNAMIC_TENSOR_NAME)获取模型中标识动态Batch输入的index。
      ACL_DYNAMIC_TENSOR_NAME是一个宏,宏的定义如下:
      #define ACL_DYNAMIC_TENSOR_NAME "ascend_mbatch_shape_data"
    2. 调用aclmdlGetInputSizeByIndex根据index获取输入内存大小。
    3. 调用aclrtMalloc接口根据2.b中的大小申请内存。

      申请动态Batch输入对应的内存后,无需用户设置该内存中的数据(否则可能会导致业务异常),用户调用3.b中的接口后,系统会自动向该内存中填入数据。

    4. 调用aclCreateDataBuffer接口创建aclDataBuffer类型的数据,用于存放动态Batch输入数据的内存地址、内存大小。
    5. 调用aclmdlCreateDataset接口创建aclmdlDataset类型的数据,并调用aclmdlAddDatasetBuffer接口向aclmdlDataset类型的数据中增加aclDataBuffer类型的数据。
  3. 在成功加载模型之后,执行模型之前,设置动态Batch数。
    1. 调用aclmdlGetInputIndexByName接口根据输入名称(固定为ACL_DYNAMIC_TENSOR_NAME)获取模型中标识动态Batch输入的index。
    2. 调用aclmdlSetDynamicBatchSize接口设置动态Batch数。

      此处设置的Batch数只能是构建模型时设置的Batch档位中的某一个。

      也可以调用aclmdlGetDynamicBatch接口获取指定模型支持的Batch档位数以及每一档中的Batch数。

  4. 执行模型。

    例如,调用aclmdlExecute接口(同步接口)执行模型。

  • 对同一个模型,aclmdlSetDynamicBatchSize接口、aclmdlSetDynamicHWSize接口和aclmdlSetInputDynamicDims接口,只能调用其中一个接口。
  • 申请模型推理的输出内存时,可以按照各档位的实际大小申请内存,也可以调用aclmdlGetOutputSizeByIndex接口获取内存大小后再申请内存(建议使用该方式,确保内存足够)。
  • 动态AIPP和动态Batch同时使用时:
    • 调用aclmdlCreateAIPP接口设置batchSize时,batchSize要设置为最大Batch数。
    • 模型中需要进行动态AIPP处理的data节点,其对应的输入内存大小需按照最大Batch来申请。

示例代码

调用接口后,需增加异常处理的分支,并记录报错日志、提示日志,此处不一一列举。以下是关键步骤的代码示例,不可以直接拷贝编译运行,仅供参考。

//1.模型加载,加载成功后,再设置动态Batch
//......

//2.准备模型描述信息modelDesc_,准备模型的输入数据input_和模型的输出数据output_
//......

//3.自定义函数,设置动态Batch
int  ModelSetDynamicInfo()
{
        size_t index;
        //3.1 获取动态Batch输入的index,标识动态Batch输入的输入名称固定为ACL_DYNAMIC_TENSOR_NAME
        aclError ret = aclmdlGetInputIndexByName(modelDesc_, ACL_DYNAMIC_TENSOR_NAME, &index);
        //3.2 设置Batch,modelId_表示加载成功的模型的ID,input_表示aclmdlDataset类型的数据,index表示标识动态Batch输入的输入index
        uint64_t batchSize = 8;
        ret = aclmdlSetDynamicBatchSize(modelId_, input_, index, batchSize);
        //......
}

//4.自定义函数,执行模型
int ModelExecute(int index)
{
        aclError ret;
        //4.1 调用自定义函数,设置动态Batch
	ret = ModelSetDynamicInfo();
        //4.2 执行模型,modelId_表示加载成功的模型的ID,input_和output_分别表示模型的输入和输出
        ret = aclmdlExecute(modelId_, input_, output_);
        //......
}
//5.处理模型推理结果
//TODO