昇腾社区首页
中文
注册

aclnnQuantMatmulV3

支持的产品型号

  • Atlas A2训练系列产品/Atlas 800I A2推理产品
  • Atlas 推理系列产品

接口原型

每个算子分为,必须先调用“aclnnQuantMatmulV3GetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnQuantMatmulV3”接口执行计算。

  • aclnnStatus aclnnQuantMatmulV3GetWorkspaceSize(const aclTensor* x1, const aclTensor* x2, const aclTensor* scale, const aclTensor* offset, const aclTensor* bias, bool transposeX1, bool transposeX2, const aclTensor* out, uint64_t* workspaceSize, aclOpExecutor** executor)

  • aclnnStatus aclnnQuantMatmulV3(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)

功能描述

  • 算子功能:完成量化的矩阵乘计算,最小支持输入维度为2维,最大支持输入维度为6维。相似接口有aclnnMm(仅支持2维Tensor作为输入的矩阵乘)和aclnnBatchMatMul(仅支持三维的矩阵乘,其中第一维是Batch维度)。

  • 计算公式:

    • 无bias:

      out=x1@x2scale+offsetout = x1@x2 * scale + offset
    • bias int32:

      out=(x1@x2+bias)scale+offsetout = (x1@x2 + bias) * scale + offset
    • bias bf16(此场景无offset):

      out=x1@x2scale+biasout = x1@x2 * scale + bias

aclnnQuantMatmulV3GetWorkspaceSize

  • 参数说明:

    • x1(const aclTensor*,计算输入):公式中的输入x1,数据类型支持INT8,支持最后两根轴转置情况下的非连续tensor,其他场景的不支持,支持ND,shape最少是2维,最多是6维,在transposeX1为false情况下各个维度表示:(batch,m,k),batch可不存在。

    • x2(const aclTensor*,计算输入):公式中的输入x2,数据类型支持INT8,支持最后两根轴转置情况下的非连续tensor,其他场景的不支持,支持ND格式和昇腾亲和数据排布格式。

      • ND格式下,shape最少是2维,最多是6维,在transposeX2为false情况下各个维度表示:(batch,k,n),batch可不存在,其中k与x1的shape中的k一致。
      • 昇腾亲和数据排布格式下,shape最少是4维,最多是8维。在transposeX2为true情况下各个维度表示:(batch,k1,n1, n0, k0),batch可不存在,其中k0 = 32, n0 = 16, x1 shape中的k和x2 shape中的k1需要满足以下关系:ceilDiv(k,32) = k1。在transposeX2为false情况下各个维度表示:(batch,n1,k1, k0, n0),batch可不存在,其中k0 = 16, n0 = 32, x1 shape中的k和x2 shape中的k1需要满足以下关系:ceilDiv(k,16) = k1。 可使用aclnnCalculateMatmulWeightSizeV2接口以及aclnnTransMatmulWeight接口完成输入Format从ND到昇腾亲和数据排布格式的转换。(当输入X2为昇腾亲和数据排布格式时,当前Atlas 推理系列产品上QuantBatchMatmulV3算子不支持transposeX2为false的场景)
    • scale(const aclTensor*,计算输入):公式中的输入scale,量化参数,数据类型支持UINT64,INT64,FLOAT32,BFLOAT16,支持ND,shape是1维(t,),t = 1或n,其中n与x2的n一致。

      • 输出为INT8、FLOAT16时,需要提前调用TransQuantParamV2算子的aclnn接口来将scale转成INT64、UINT64数据类型。
      • 输出为BFLOAT16时,直接将BFLOAT16类型的scale传入本接口,其中BFLOAT16仅Atlas A2训练系列产品/Atlas 800I A2推理产品支持。FLOAT32为torch离线图预留。
    • offset(const aclTensor*,计算输入):公式中的输入offset,量化参数,数据类型支持FLOAT32,支持ND,shape是1维(t,),t = 1或n,其中n与x2的n一致。

    • bias(const aclTensor*,计算输入):公式中的输入bias,数据类型支持INT32,BFLOAT16,支持ND,shape支持1维(n,)或3维(batch,1,n),n与x2的n一致。

    • transposeX1(bool,计算输入):表示x1的输入shape是否包含transpose,默认是false,若为true,x1的shape表示为(batch,k,m),batch可不存在。

    • transposeX2(bool,计算输入):表示x2的输入shape是否包含transpose,默认是false,若为true,x2的shape表示为(batch,n,k),batch可不存在。

    • out(aclTensor*, 计算输出):公式中的输出out,数据类型支持FLOAT16,INT8,BFLOAT16,支持支持ND,shape最少是2维,最多是6维,(batch,m,n),batch可不存在,支持x1与x2的batch维度broadcast,输出batch与broadcast之后的batch一致,m与x1的m一致,n与x2的n一致。其中BFLOAT16仅Atlas A2训练系列产品/Atlas 800I A2推理产品支持。

    • workspaceSize(uint64_t*, 出参):返回用户需要在Device侧申请的workspace大小。

    • executor(aclOpExecutor**, 出参):返回op执行器,包含了算子计算流程。

  • 返回值:

    aclnnStatus:返回状态码,具体参见

    [object Object]

aclnnQuantMatmulV3

  • 参数说明:

    • workspace(void*, 入参):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnQuantMatmulV3GetWorkspaceSize获取。
    • executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。
    • stream(aclrtStream, 入参):指定执行任务的 AscendCL Stream流。
  • 返回值:

    aclnnStatus:返回状态码,具体参见

约束与限制

无。

调用示例

示例代码如下(以Atlas A2训练系列产品/Atlas 800I A2推理产品为例),仅供参考,具体编译和执行过程请参考

[object Object]

Atlas A2训练系列产品/Atlas 800I A2推理产品weight为昇腾亲和数据排布格式场景的示例代码如下(transposeX2=false),仅供参考,具体编译和执行过程请参考

[object Object]

Atlas 推理系列产品Weight为昇腾亲和数据排布格式场景的示例代码如下(transposeX2=true),仅供参考,具体编译和执行过程请参考

[object Object]