昇腾社区首页
中文
注册

aclnnAvgPool2dBackward

支持的产品型号

  • Atlas 推理系列产品。
  • Atlas 训练系列产品。
  • Atlas A2训练系列产品/Atlas 800I A2推理产品。

接口原型

每个算子分为undefined,必须先调用“aclnnAvgPool2dBackwardGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnAvgPool2dBackward”接口执行计算。

  • aclnnStatus aclnnAvgPool2dBackwardGetWorkspaceSize(const aclTensor *gradOutput, const aclTensor *self, const aclIntArray *kernelSize, const aclIntArray *stride, const aclIntArray *padding, bool ceilMode, bool countIncludePad, int64_t divisorOverride, int8_t cubeMathType, aclTensor *gradInput, uint64_t *workspaceSize, aclOpExecutor **executor)

  • aclnnStatus aclnnAvgPool2dBackward(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)

功能描述

  • 算子功能:二维平均池化的反向传播,计算二维平均池化正向传播的输入梯度。

  • 计算公式:假设二位平均池化正向的输入张量为XX,输出张量为YY,池化窗口大小为kkk*k,步长为ss,则XX的梯度LX\frac{\partial L}{\partial X}计算公式为:

LXi,j=1k2n=0k1LYis+mk,js+nk\frac{\partial L}{\partial X_{i,j}}=\frac{1}{k^2}\sum_{n=0}^{k-1}\frac{\partial L}{\partial Y_{\lfloor\frac{i*s+m}{k}\rfloor,\lfloor\frac{j*s+n}{k}\rfloor}}

各参数意义如下:

  • LL为损失函数,\lfloor\cdot\rfloor表示向上取整。
  • Xi,jX_{i,j}表示输入特征图中第ii行,第jj列。
  • Yis+mk,js+nkY_{\lfloor\frac{i*s+m}{k}\rfloor,\lfloor\frac{j*s+n}{k}\rfloor}表示输出特征图中第is+mk\lfloor\frac{i*s+m}{k}\rfloor行,第js+nk\lfloor\frac{j*s+n}{k}\rfloor列的像素值。
  • kk表示池化窗口的大小。
  • ss表示步长大小。
  • LXi,j\frac{\partial L}{\partial X_{i,j}}表示损失函数L对输入特征图中第i行,第j列的像素值的偏导数。
  • LYis+mk,js+nk\frac{\partial L}{\partial Y_{\lfloor\frac{i*s+m}{k}\rfloor,\lfloor\frac{j*s+n}{k}\rfloor}}表示损失函数LL对图中第is+mk\lfloor\frac{i*s+m}{k}\rfloor行,js+nk\lfloor\frac{j*s+n}{k}\rfloor列的像素值偏导数。

aclnnAvgPool2dBackwardGetWorkspaceSize

  • 参数说明

    • gradOutput(const aclTensor *, 计算输入):公式中的Ly\frac{\partial L}{\partial y},Device侧的aclTensor,不支持空tensor场景,数据类型支持FLOAT16、FLOAT、BFLOAT16(仅Atlas A2训练系列产品/Atlas 800I A2推理产品支持)。支持undefined,undefined支持NCHW和NCL。输入为4维时,shape为(N, C, HoutH_{out}, WoutW_{out}),输入为3维时,shape为(C, HoutH_{out}, WoutW_{out})。
    • self(const aclTensor *,计算输入): Device侧的aclTensor,正向过程中的输入,数据类型支持FLOAT16、FLOAT、BFLOAT16(仅Atlas A2训练系列产品/Atlas 800I A2推理产品支持)。支持undefined,undefined支持NCHW和NCL。输入为4维时,shape为(N, C, HinH_{in}, WinW_{in}),输入为3维时,shape为(C, HinH_{in}, WinW_{in})。
    • kernelSize(const aclIntArray *,计算输入): Host侧的aclIntArray,表示池化窗口大小,INT64类型数组,长度为1(kH=kWkH=kW)或2(kH,kWkH, kW)。
    • stride(const aclIntArray *,计算输入): Host侧的aclIntArray,表示池化操作的步长,INT64类型数组,长度为0(sH=kH,sW=kWsH=kH,sW=kW)或者1(sH=sWsH=sW)或2(sH,sWsH, sW)。
    • padding(const aclIntArray *,计算输入): Host侧的aclIntArray,表示在输入的H、W方向上padding补0的层数,INT64类型数组,长度为1(padH=padWpadH=padW)或2(padH,padWpadH, padW)。
    • ceilMode(const bool,计算输入): 表示正向平均池化过程中推导的输出的shape是否向上取整。数据类型支持BOOL。
    • countIncludePad(const bool,计算输入): 计算正向平均池化时是否包括padding填充的0。数据类型支持BOOL。
    • divisorOverride(const int64_t,计算输入): 表示取平均的除数。支持范围为[-255,255],0表示不影响padding是否参与平均计算,数据类型支持INT64。
    • cubeMathType(int8_t,计算输入): INT8类型的枚举值,用于判断Cube单元应该使用哪种计算逻辑进行运算,支持的枚举值如下:
      • 0:KEEP_DTYPE,保持输入的数据类型进行计算。当输入是FLOAT,Atlas 训练系列产品和Atlas 推理系列产品暂不支持,取0时会报错。
      • 1:ALLOW_FP32_DOWN_PRECISION,允许将输入数据降精度计算。当输入是FLOAT,Atlas 训练系列产品和Atlas 推理系列产品允许转换为FLOAT16计算,Atlas A2训练系列产品/Atlas 800I A2推理产品允许转换为HFLOAT32计算。
      • 2:USE_FP16,允许转换为数据类型FLOAT16进行计算。当输入数据类型是FLOAT,转换为FLOAT16计算。
      • 3:USE_HF32,允许转换为数据类型HFLOAT32计算。当输入是FLOAT,Atlas 训练系列产品和Atlas 推理系列产品暂不支持,取3时会报错;Atlas A2训练系列产品/Atlas 800I A2推理产品上,仅支持直接调用该aclnn接口设置该参数可以生效,其他调用方式不生效。
    • gradInput(aclTensor *,计算输出): Device侧的aclTensor。数据类型支持FLOAT16、FLOAT、BFLOAT16(仅Atlas A2训练系列产品/Atlas 800I A2推理产品支持)。支持undefined。支持undefined为NCHW和NCL。数据类型、undefined需要与self一致。
    • workSpaceSize(uint64_t *,出参):返回需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor**,出参):返回op执行器,包含了算子计算流程。
  • 返回值

    aclnnStatus:返回状态码,具体参见undefined

    [object Object]

aclnnAvgPool2dBackward

  • 参数说明

    • workspace(void*, 入参):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnAvgPool2dBackwardGetWorkspaceSize获取。
    • executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。
    • stream(aclrtStream, 入参):指定执行任务的AscendCL Stream流。
  • 返回值

    aclnnStatus:返回状态码,具体参见undefined

约束与限制

  • 对于Atlas 训练系列产品和Atlas 推理系列产品,Cube单元不支持FLOAT32计算。当输入为FLOAT32,可通过设置cubeMathType=1(ALLOW_FP32_DOWN_PRECISION)来允许接口内部cast到FLOAT16进行计算。
  • 输入channel最大支持65535

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考undefined

[object Object]