昇腾社区首页
中文
注册

aclnnQuantMatmulReduceSumWeightNz

产品支持情况

产品 是否支持
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]
[object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]
[object Object]Atlas 200I/500 A2 推理产品[object Object] ×
[object Object]Atlas 推理系列产品 [object Object] ×
[object Object]Atlas 训练系列产品[object Object] ×

功能说明

  • 算子功能:完成量化的分组矩阵计算,然后所有组的矩阵计算结果相加后输出

  • 计算公式:

out=i=0batch(x1i@x2i)x1Scalex2Scaleout = \sum_{i=0}^{batch}(x1_i @ x2_i) * x1Scale * x2Scale

函数原型

每个算子分为undefined,必须先调用“aclnnQuantMatmulReduceSumWeightNzGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnQuantMatmulReduceSumWeightNz”接口执行计算。

  • aclnnStatus aclnnQuantMatmulReduceSumWeightNzGetWorkspaceSize(const aclTensor *x1, const aclTensor *x2, const aclTensor *x1Scale, const aclTensor *x2Scale, const aclTensor *yScale, const aclTensor *x1Offset, const aclTensor *x2Offset, const aclTensor *yOffset, const aclTensor *bias, bool transposeX1, bool transposeX2, int64_t groupSize, const aclIntArray *dims, bool keepDims, aclTensor *out, uint64_t *workspaceSize, aclOpExecutor **executor)

  • aclnnStatus aclnnQuantMatmulReduceSumWeightNz(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)

aclnnQuantMatmulReduceSumWeightNzGetWorkspaceSize

  • 参数说明:

    • x1(aclTensor*,计算输入):公式中的输入x1,device侧的aclTensor。undefined支持ND。不支持undefined,shape支持3维,形状为(batch, m, k)。数据类型支持INT8。

    • x2(aclTensor*,计算输入):公式中的输入x2,device侧的aclTensor。数据类型支持INT8,不支持undefinedundefined支持昇腾亲和数据排布格式。shape支持5维。

      • 在transposeX2为false情况下各个维度表示:(batch,n1,k1,k0,n0),其中k0 = 16, n0 = 32, x1 shape中的k和x2 shape中的k1需要满足以下关系:ceil(k / 16) = k1, x2 shape中的n1与out的n满足以下关系: ceil(n / n0) = n1。
      • 可使用aclnnCalculateMatmulWeightSizeV2接口以及aclnnTransMatmulWeight接口完成输入Format从ND到昇腾亲和数据排布格式的转换。原始的ND格式的shape为(batch, k, n)。
    • x1Scale(aclTensor*,计算输入):公式中的输入x1Scale,device侧的aclTensor。undefined支持ND。shape支持2维,形状为(batch,m)。数据类型支持FLOAT32。

      • 在实际计算时,x1Scale会被广播为(batch,m,n)。
    • x2Scale(aclTensor*,计算输入):表示量化参数,公式中的输入x2Scale,device侧的aclTensor。undefined支持ND。shape支持1维,形状为(n,)其中n与x2的n一致。数据类型支持BFLOAT16。

      • 在实际计算时,x2Scale会被广播为(batch,m,n)。
    • yScale(aclTensor*,计算输入):预留参数,当前版本不支持,需要传入nullptr。

    • x1Offset(aclTensor*,计算输入):预留参数,当前版本不支持,需要传入nullptr。

    • x2Offset(aclTensor*,计算输入):预留参数,当前版本不支持,需要传入nullptr。

    • yOffset(aclTensor*,计算输入):预留参数,当前版本不支持,需要传入nullptr。

    • bias(aclTensor*,计算输入):预留参数,当前版本不支持,需要传nullptr。

    • transposeX1(bool,计算输入):表示x1的输入shape是否包含transpose。当前版本仅支持false,表示x1的输入shape意义不变。

    • transposeX2(bool,计算输入):表示x2的输入shape是否包含transpose,当前版本仅支持false,表示x2的输入shape意义不变。

    • groupSize(int64_t,计算输入):预留参数,当前版本不支持,需要传入0。

    • dims(aclIntArray *):Host侧的aclIntArray,指定reduce维度,数据类型支持INT64。当前版本仅支持填[0],表示在第0维(batch维)做ReduceSum。

    • keepDims(bool, 计算输入):指定是否在输出张量中保留输入张量的维度。当前版本仅支持false。

    • out(aclTensor*,计算输出):公式中的输出out,device侧的aclTensor。undefined支持ND。支持undefined,数据类型支持BFLOAT16。shape支持2维,形状为(m, n)。

    • workspaceSize(uint64_t*,出参):返回需要在Device侧申请的workspace大小。

    • executor(aclOpExecutor**,出参):返回op执行器,包含了算子计算流程。

  • 返回值:

    aclnnStatus:返回状态码,具体参见undefined

    [object Object]

aclnnQuantMatmulReduceSumWeightNz

  • 参数说明:

    • workspace(void *, 入参):在Device侧申请的workspace内存地址。

    • workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnQuantMatmulReduceSumWeightNzGetWorkspaceSize获取。

    • executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。

    • stream(aclrtStream, 入参):指定执行任务的Stream。

  • 返回值:

    aclnnStatus: 返回状态码,具体参见undefined

约束说明

输入和输出支持以下数据类型组合:

x1 x2 x1Scale x2Scale yScale x1Offset x2Offset yOffset bias out
INT8 INT8 FLOAT32 BFLOAT16 null null null null null BFLOAT16

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考undefined

[object Object]