昇腾社区首页
中文
注册

aclnnMaxPool2dWithMask

支持的产品型号

  • Atlas 训练系列产品。
  • Atlas A2训练系列产品。

接口原型

每个算子分为,必须先调用“aclnnMaxPool2dWithMaskGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMaxPool2dWithMask”接口执行计算。

  • aclnnStatus aclnnMaxPool2dWithMaskGetWorkspaceSize(const aclTensor *self, const aclIntArray *kernelSize, const aclIntArray *stride, const aclIntArray *padding, const aclIntArray *dilation, const bool ceilMode, aclTensor *out, aclTensor *indices, uint64_t *workspaceSize, aclOpExecutor **executor)
  • aclnnStatus aclnnMaxPool2dWithMask(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)

功能描述

  • 算子功能: 对于输入信号的输入通道,提供2维最大池化(max pooling)操作,输出池化后的值out和索引indices(采用mask语义计算得出)。

  • 计算公式:

    1. output tensor中每个元素的计算公式:
    out(Nj,Cj,h,w)=maxm[0,kH1],n[0,kW1]input(Ni,Cj,stride[0]×h+m,stride[1]×w+n)out(N_j, C_j, h, w) = \max\limits_{{m\in[0,k_{H-1}],n\in[0,k_{W- 1}]}}input(N_i,C_j,stride[0]\times h + m, stride[1]\times w + n)
    1. out tensor的shape推导公式:
    [N,C,Hout,Wout]=[N,C,Hin+2×padding_sizedilation_size×(kh1)1sh+1,Win+2×padding_sizedilation_size×(kw1)1sw+1][N, C, H_{out}, W_{out}]=[N,C,\lfloor{\frac{H_{in}+2 \times {padding\_size - dilation\_size \times (k_h - 1) - 1}}{s_h}}\rfloor + 1,\lfloor{\frac{W_{in}+2 \times {padding\_size - dilation\_size \times (k_w - 1) - 1}}{s_w}}\rfloor + 1]
    1. indices tensor的shape推导公式:
    [N,C,Hindices,Windices]=[N,C,kh×kw,(Hout×Wout16+1)×2×16][N, C, H_{indices}, W_{indices}]=[N,C,k_h \times k_w, (\lceil{\frac{H_{out} \times W_{out}}{16}}\rceil+1) \times 2 \times 16]

aclnnMaxPool2dWithMaskGetWorkSpaceSize

  • 参数说明:

    • self(const aclTensor *, 计算输入): 输入Tensor,Device侧aclTensor。数据类型支持FLOAT16、FLOAT。shape支持3D或者4D,不支持其他shape。支持支持NCHW和CHW。
    • kernelSize(const aclIntArray *, 计算输入): 表示最大池化的窗口大小。
    • stride(const aclIntArray *, 计算输入): 窗口移动的步长,默认值是kernelSize。stride的长度为0时,stride的数值等于kernelSize的值。
    • padding(const aclIntArray *, 计算输入): 每一条边补充的层数,补充的位置填写“负无穷”。
    • dilation(const aclIntArray *, 计算输入): 控制窗口中元素的步幅,值仅支持1。
    • ceilMode(const bool *, 计算输入): 为True时表示计算输出形状时用向上取整的方法;默认为false,即向下取整。
    • out(aclTensor *, 计算输出): 输出Tensor,是Device侧aclTensor。池化后的结果。数据类型支持FLOAT16、FLOAT。shape与self保持一致。支持NCHW和CHW,与self保持一致。
    • indices(aclTensor *, 计算输出): 输出Tensor,是Device侧aclTensor。最大值在求mask的kernel位置的bit值组成的Tensor。数据类型仅支持INT8。不支持支持NCHW和CHW,与self保持一致。
    • workspaceSize(uint64_t *, 出参): 返回用户需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor **, 出参): 返回op执行器,包含了算子计算流程。
  • 返回值:

    aclnnStatus: 返回状态码,具体参见

[object Object]

aclnnMaxPool2dWithMask

  • 参数说明:

    • workspace(void *, 入参): 在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t, 入参): 在Device侧申请的workspace大小,由第一段接口aclnnMaxPool2dWithMaskGetWorkSpaceSize获取。
    • executor(aclOpExecutor *, 入参): op执行器,包含了算子计算流程。
    • stream(aclrtStream, 入参): 指定执行任务的 AscendCL Stream流。
  • 返回值:

    aclnnStatus: 返回状态码,具体参见

约束与限制

  • 第一段接口aclnnMaxPool2dWithMaskGetWorkSpaceSize中indices参数为自定义的mask值,不支持不连续的Tensor。
  • 输入数据暂不支持nan、-inf。
  • 针对Atlas 训练系列产品,当输入数据是FLOAT类型时,会转换为FLOAT16类型进行计算,存在一定程度的精度损失。

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考

[object Object]