昇腾社区首页
中文
注册

aclnnQuantMatmul

该接口后续版本会废弃,请使用最新接口undefined,接口迁移方法参考本文档undefined

支持的产品型号

  • Atlas A2训练系列产品/Atlas 800I A2推理产品。

接口原型

每个算子分为undefined,必须先调用“aclnnQuantMatmulGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnQuantMatmul”接口执行计算。

  • aclnnStatus aclnnQuantMatmulGetWorkspaceSize(const aclTensor *x1, const aclTensor *x2, const aclTensor *bias, float deqScale, aclTensor *out, uint64_t *workspaceSize, aclOpExecutor **executor)

  • aclnnStatus aclnnQuantMatmul(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, const aclrtStream stream)

功能描述

  • 算子功能:完成量化的矩阵乘计算,最小支持维度为2维,最大支持输入维度为3维。

    相似接口有aclnnMm(仅支持2维Tensor作为输入的矩阵乘)和aclnnBatchMatMul(仅支持三维的矩阵乘,其中第一维是Batch维度)。

  • 计算公式:

out=(x1@x2+bias)deqScaleout = (x1@x2 + bias) * deqScale

aclnnQuantMatmulGetWorkspaceSize

  • 参数说明

    • x1(const aclTensor *, 计算输入):Device侧的2维至3维aclTensor,维度与x2一致,不支持broadcast,undefined支持ND,数据类型支持INT8,且数据类型需要与x2满足undefined。各个维度表示:(batch,m,k),batch可不存在。
    • x2(const aclTensor *, 计算输入):Device侧的2维至3维aclTensor,维度与x1一致,不支持broadcast,undefined支持ND,数据类型支持INT8,且数据类型需要与x1满足undefined。各个维度表示:(batch,k,n),batch可不存在,其中k与x1的shape中的k一致。
    • bias(const aclTensor *, 计算输入):Device侧的1维Tensor,shape支持一维(n, ),n与x2的n一致。公式输入bias,数据类型支持INT32,undefined支持ND。该Bias是经过量化特殊处理过的Bias。 量化特殊处理过程:biasINT32=round(round(biasFLOAT16/deqScale)offsetXwINT8)biasINT32 = round(round(biasFLOAT16/deqScale) - offsetX * wINT8)
    • deqScale(float, 计算输入):公式中的输入depScale,量化参数。
    • out(const aclTensor *, 计算输出):Device侧的aclTensor,数据类型支持FLOAT16,Shape需要是x1与x2经过推导之后的Shape,undefined支持ND。
    • workspaceSize(uint64_t *, 出参):返回需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor **, 出参):返回op执行器,包含了算子计算流程。
  • 返回值:

    aclnnStatus:返回状态码,具体参见undefined

    [object Object]

aclnnQuantMatmul

  • 参数说明:

    • workspace(void *, 入参):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnQuantMatmulGetWorkspaceSize获取。
    • executor(aclOpExecutor *, 入参):op执行器,包含了算子计算流程。
    • stream(aclrtStream, 入参):指定执行任务的 AscendCL Stream流。
  • 返回值: aclnnStatus: 返回状态码,具体参见undefined

约束与限制

接口迁移到aclnnQuantMatmulV4接口的方法:

  • 输入x1,x2,bias可以直接转为aclnnQuantMatmulV4接口中的x1,x2,bias。
  • 输入deqScale为FLOAT型,将这个FLOAT数构造成shape为(1,)的FLOAT型aclTensor(参考undefined中的CreateAclTensor), 再利用aclnnTransQuantParamV2转为shape为(1,)的uint64_t的aclTensor(参考undefined),记为scale,对标aclnnQuantMatmulV4接口中的scale。
  • aclnnQuantMatmulV4接口中的可选输入offset/pertokenScaleOptional设置为nullptr,transposeX1和transposeX2均设置为false。
  • 接口参数设置为aclnnQuantMatmulV4GetWorkspaceSize(x1, x2, scale, nullptr, nullptr, bias, false, false, out, workspaceSize, executor)

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考undefined

[object Object]