昇腾社区首页
中文
注册

aclnnConvolution

支持的产品型号

  • Atlas 推理系列产品。
  • Atlas 训练系列产品。
  • Atlas A2训练系列产品/Atlas 800I A2推理产品。

接口原型

每个算子分为,必须先调用“aclnnConvolutionGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnConvolution”接口执行计算。

  • aclnnStatus aclnnConvolutionGetWorkspaceSize( const aclTensor *input, const aclTensor *weight, const aclTensor *bias, const aclIntArray *stride, const aclIntArray *padding, const aclIntArray *dilation, const bool transposed, const aclIntArray *outputPadding, const int64_t groups, aclTensor *output, int8_t cubeMathType, uint64_t *workspaceSize, aclOpExecutor **executor)
  • aclnnStatus aclnnConvolution(void* workspace, const uint64_t workspaceSize, aclOpExecutor *executor, const aclrtStream stream)

功能描述

  • 算子功能:实现卷积功能,支持1D卷积,2D卷积,3D卷积,同时支持转置卷积、空洞卷积、分组卷积。 对于入参transposed = True时,表示使用转置卷积或者分数步长卷积。它可以看作是普通卷积的梯度或者逆向操作,即从卷积的输出形状恢复到输入形状,同时保持与卷积相容的连接模式。它的参数和普通卷积类似,包括输入通道数、输出通道数、卷积核大小、步长、填充、输出填充、分组、偏置、扩张等。

  • 计算公式:

    我们假定输入(input)的shape是 (N,Cin,H,W)(N, C_{\text{in}}, H, W) ,输出(output)的shape是 (N,Cout,Hout,Wout)(N, C_{\text{out}}, H_{\text{out}}, W_{\text{out}}),那输出将被表示为:

out(Ni,Coutj)=bias(Coutj)+k=0Cin1weight(Coutj,k)input(Ni,k)\text{out}(N_i, C_{\text{out}_j}) = \text{bias}(C_{\text{out}_j}) + \sum_{k = 0}^{C_{\text{in}} - 1} \text{weight}(C_{\text{out}_j}, k) \star \text{input}(N_i, k)

其中,\star表示互相关的计算,根据卷积输入的dim,卷积的类型(空洞卷积、分组卷积)而定。NN代表batch size,CC代表通道数,WWHH分别代表宽和高

aclnnConvolutionGetWorkspaceSize

  • 参数说明:

    • input(aclTensor *, 计算输入):公式中的input,数据类型仅支持BFLOAT16(仅Atlas A2训练系列产品/Atlas 800I A2推理产品支持),FLOAT,FLOAT16,支持为NCL,NCHW,NCDHW。
    • weight(aclTensor *, 计算输入):公式中的weight,数据类型仅支持BFLOAT16(仅Atlas A2训练系列产品/Atlas 800I A2推理产品支持),FLOAT,FLOAT16,支持为NCL,NCHW,NCDHW。
    • bias(aclTensor *, 计算输入):公式中的bias,数据类型仅支持BFLOAT16(仅Atlas A2训练系列产品/Atlas 800I A2推理产品支持, conv1d/conv2d正向场景下会转成FLOAT参与计算),FLOAT,FLOAT16(在Atlas 推理系列产品conv2d正向场景下会直接以FLOAT16格式与输入规格下不带bias的conv2d FLOAT16运算结果进行相加,得到最终带bias的conv2d结果),支持为NCL,NCHW,NCDHW, ND(Transpose卷积下格式只能是ND,非transpose下的1D卷积,2D卷积格式只支持一维且数值与weight第一维相等)。
    • stride(aclIntArray *, 计算输入):卷积扫描步长,数组长度需等于input的维度减2。
    • padding(aclIntArray *, 计算输入):对input的填充,对于conv1d非转置卷积的数组长度可以为1或者2;对于conv2d数组长度可以为2或者4;conv3d数组长度可以为3或者6。
    • dilation(aclIntArray *, 计算输入):卷积核中元素的间隔,数组长度需等于input的维度减2。
    • transposed(bool, 计算输入):是否为转置卷积。
    • outputPadding(aclIntArray *, 计算输入):转置卷积情况下,对输出所有边的填充,数组长度需等于input的维度减2。
    • groups(int64, 计算输入):表示从输入通道到输出通道的块链接个数。
    • cubeMathType(int8_t, 计算输入):用于判断Cube单元应该使用哪种计算逻辑进行运算,INT8类型的枚举值,枚举如下:
      • 0:KEEP_DTYPE,保持输入的数据类型进行计算。当输入是BFLOAT16或FLOAT,Atlas 训练系列产品和Atlas 推理系列产品暂不支持,取0时会报错。
      • 1:ALLOW_FP32_DOWN_PRECISION,允许将输入数据降精度计算。当输入是FLOAT,Atlas 训练系列产品和Atlas 推理系列产品允许转换为FLOAT16计算,Atlas A2训练系列产品/Atlas 800I A2推理产品允许转换为HFLOAT32计算。当输入是BFLOAT16,Atlas 训练系列产品和Atlas 推理系列产品Cube计算单元暂不支持,取1时会报错,Atlas A2训练系列产品/Atlas 800I A2推理产品仍使用BFLOAT16计算。
      • 2:USE_FP16,允许转换为数据类型FLOAT16进行计算。当输入数据类型是FLOAT时,转换为FLOAT16计算。当输入是BFLOAT16,Atlas 训练系列产品和Atlas 推理系列产品Cube计算单元暂不支持,Atlas A2训练系列产品/Atlas 800I A2推理产品转换成FLOAT16计算
      • 3:USE_HF32,允许转换为数据类型HFLOAT32计算。当输入是FLOAT,Atlas 训练系列产品和Atlas 推理系列产品暂不支持,取3时会报错,Atlas A2训练系列产品/Atlas 800I A2推理产品转换为HFLOAT32计算。当输入是BFLOAT16,Atlas 训练系列产品和Atlas 推理系列产品Cube计算单元暂不支持,取3时会报错,Atlas A2训练系列产品/Atlas 800I A2推理产品仍使用BFLOAT16计算。当输入是FLOAT16,昇腾AI处理器仍使用FLOAT16计算。
    • output(aclTensor *, 计算输出):公式中的out,数据类型为input和weight中的高精度类型,数据类型仅支持BFLOAT16(仅Atlas A2训练系列产品/Atlas 800I A2推理产品支持),FLOAT,FLOAT16,为NCL,NCHW,NCDHW。
    • workspaceSize(uint64_t *, 计算输出):返回用户需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor **, 计算输出):返回op执行器,包含了算子计算流程。
  • 返回值:

    aclnnStatus: 返回状态码,具体参见

    [object Object]

aclnnConvolution

  • 参数说明:

    • workspace(void*, 计算输入):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t, 计算输入):在Device侧申请的workspace大小,由第一段接口aclnnConvolutionGetWorkspaceSize获取。
    • executor(aclOpExecutor*, 计算输入):op执行器,包含了算子计算流程。
    • stream(aclrtStream, 计算输入):指定执行任务的 AscendCL Stream流。
  • 返回值:

    aclnnStatus:返回状态码,具体参见

约束与限制

Atlas 推理系列产品:当前仅支持1D和2D卷积,暂不支持3D卷积。

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考

[object Object]