昇腾社区首页
中文
注册

aclnnConvTbcBackward

支持的产品型号

  • Atlas 训练系列产品。
  • Atlas A2训练系列产品。

接口原型

每个算子分为,必须先调用“aclnnConvTbcBackwardGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnConvTbcBackward”接口执行计算。

  • aclnnStatus aclnnConvTbcBackwardGetWorkspaceSize(const aclTensor *self, const aclTensor *input, const aclTensor *weight, const aclTensor *bias, const int64_t pad, int8_t cubeMathType, aclTensor *gradInput, aclTensor *gradWeight, aclTensor *gradBias, uint64_t *workspaceSize, aclOpExecutor **executor)
  • aclnnStatus aclnnConvTbcBackward(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, const aclrtStream stream)

功能描述

  • 计算功能:用于计算时序卷积的反向传播

  • 计算公式:

    假定输入Conv_tbc正向的输入inputinput的shape是(Hint,N,Cin)(H_{\text{int}},N,C_{\text{in}}),输出梯度grad_outputgrad\_output的shape是(Hout,N,Cout)(H_{\text{out}},N,C_{\text{out}}),卷积核weightweight的shape是(K,Cin,Cout)(K,C_{\text{in}},C_{\text{out}}),偏置biasbias的shape为(Cout)(C_{\text{out}})

    输入张量input的梯度输出grad_input(t,b,c)grad\_input_{(t,b,c)}将被表示为:

    grad_input(t,b,c)=k=0K1self(t+k,b,d)weight(k,c,d)grad\_input_{(t,b,c)} = \sum_{k=0}^{K-1} self_{(t+k,b,d)} \cdot weight_{(k,c,d)}

    卷积核weight的梯度输出grad_weight(t,b,c)grad\_weight_{(t,b,c)}将被表示为:

    grad_weight(t,b,c)=k=0K1self(t+k,b,d)input(k,c,d)grad\_weight_{(t,b,c)} = \sum_{k=0}^{K-1} self_{(t+k,b,d)} \cdot input_{(k,c,d)}

    偏执bias的梯度输出grad_biasgrad\_bias将被表示为:

    grad_biasj=i=1Nt=1Houtgrad_outputi,t,jgrad\_bias_j = \sum_{i=1}^{N}\sum_{t=1}^{H_{\text{out}}} grad\_output_{i,t,j}

aclnnConvTbcBackwardGetWorkspaceSize

  • 参数说明:

    • self(const aclTensor *,计算输入): 计算公式中的grad_outputgrad\_output,数据类型仅支持FLOAT,FLOAT16,支持为NCL。
    • input(const aclTensor *,计算输入): 计算公式中的inputinput,数据类型仅支持FLOAT,FLOAT16,支持为NCL。
    • weight(const aclTensor *,计算输入): 计算公式中的weightweight,数据类型仅支持FLOAT,FLOAT16,支持为NCL。
    • bias(const aclTensor *,计算输入): 计算公式中的biasbias,数据类型仅支持FLOAT,FLOAT16,支持为ND。
    • pad(int64,计算输入): 表示T维度上左右填充的个数。
    • cubeMathType(int8,计算输入): 用于判断Cube单元应该使用哪种计算逻辑进行运算,INT8类型的枚举值,枚举如下:
      • 0:KEEP_DTYPE,保持输入的数据类型进行计算。当输入是FLOAT,Atlas 训练系列产品Cube计算单元暂不支持,取0时会报错。
      • 1:ALLOW_FP32_DOWN_PRECISION,允许将输入数据降精度计算。当输入是FLOAT,Atlas 训练系列产品转换为FLOAT16计算,Atlas A2训练系列产品转换为HFLOAT32计算。
      • 2:USE_FP16,允许转换为数据类型FLOAT16进行计算。当输入数据类型是FLOAT,转换为FLOAT16计算。
      • 3:USE_HF32,允许转换为数据类型HFLOAT32计算。当输入是FLOAT,Atlas 训练系列产品Cube计算单元暂不支持,取3时会报错,Atlas A2训练系列产品转换为HFLOAT32计算。
      • gradInput(aclTensor *,计算输出):计算公式中的grad_inputgrad\_input,数据类型仅支持FLOAT,FLOAT16,数据类型与input类型一致,为NCL。
      • gradWeight(aclTensor *,计算输出):计算公式中的grad_weightgrad\_weight,数据类型仅支持FLOAT,FLOAT16,数据类型与weight类型一致,为NCL。
      • gradBias(aclTensor *,计算输出):计算公式中的grad_biasgrad\_bias,数据类型仅支持FLOAT,FLOAT16,数据类型与bias类型一致,为NCL。
    • workspaceSize(uint64_t *,出参):返回用户需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor **,出参):返回op执行器,包含了算子计算流程。
  • 返回值:

    aclnnStatus: 返回状态码,具体参见

    [object Object]

aclnnConvTbcBackward

  • 参数说明:

    • workspace(void *,入参):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t,入参):在Device侧申请的workspace大小,由第一段接口aclnnConvTbcBackwardGetWorkspaceSize获取。
    • executor(aclOpExecutor *,入参):op执行器,包含了算子计算流程。
    • stream(const aclrtStream,入参):指定执行任务的 AscendCL Stream流。
  • 返回值:

    aclnnStatus: 返回状态码,具体参见

约束与限制

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考

[object Object]