昇腾社区首页
中文
注册

aclnnQuantMatmulV2

该接口后续版本会废弃,请使用最新接口undefined,接口迁移方法参考本文档undefined

支持的产品型号

  • Atlas A2训练系列产品/Atlas 800I A2推理产品。

接口原型

每个算子分为undefined,必须先调用“aclnnQuantMatmulV2GetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnQuantMatmulV2”接口执行计算。

  • aclnnStatus aclnnQuantMatmulV2GetWorkspaceSize(const aclTensor *x1, const aclTensor *x2, const aclTensor *bias, const aclTensor *deqScale, bool adjX1, bool adjX2, aclTensor *out, uint64_t *workspaceSize, aclOpExecutor **executor)

  • aclnnStatus aclnnQuantMatmulV2(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, const aclrtStream stream)

功能描述

  • 算子功能:完成量化的矩阵乘计算,最大支持输入维度为3维。相似接口有aclnnMm(仅支持2维Tensor作为输入的矩阵乘)和aclnnBatchMatMul(仅支持三维的矩阵乘,其中第一维是Batch维度)。
  • 计算公式:
out=(x1@x2+bias)deqScaleout = (x1@x2 + bias) * deqScale

aclnnQuantMatmulV2GetWorkspaceSize

  • 参数说明:

    • x1(const aclTensor*, 计算输入):公式中的输入x1,device侧的aclTensor,数据类型支持INT8,不支持undefinedundefined支持ND,shape最少是2维,最多是3维,在adjX1为false情况下各个维度表示:(batch,m,k),batch可不存在。
    • x2(const aclTensor*, 计算输入):公式中的输入x2,device侧的aclTensor,数据类型支持INT8,不支持undefinedundefined支持ND,shape最少是2维,最多是3维,在adjX2为false情况下各个维度表示:(batch,k,n),batch可不存在,其中k与x1的shape中的k一致。
    • bias(const aclTensor*, 计算输入):公式中的输入bias,device侧的aclTensor,数据类型支持INT32,undefined支持ND,shape是1维(n,),n与x2的n一致。
    • deqScale(const aclTensor*, 计算输入):公式中的输入depScale,量化参数,device侧的aclTensor,数据类型支持UINT64,undefined支持ND,shape是1维(t,),t = align(n, 16), 其中n与x2的n一致。
    • adjX1(bool, 计算输入):表示x1的输入shape是否包含transpose,默认是false,若为true,x1的shape表示为(batch,k,m),batch可不存在。
    • adjX2(bool, 计算输入):表示x2的输入shape是否包含transpose,默认是false,若为true,x2的shape表示为(batch,n,k),batch可不存在。
    • out(aclTensor*, 计算输出):公式中的输出out,device侧的aclTensor, 数据类型支持FLOAT16, 支持undefinedundefined支持ND,shape最少是2维,最多是3维,(batch,m,n),batch可不存在,支持x1与x2的batch维度broadcast,输出batch与broadcast之后的batch一致,m、n分别与x1的m、x2的n一致。
    • workspaceSize(uint64_t*, 出参):返回需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor**, 出参):返回op执行器,包含了算子计算流程。
  • 返回值:

    aclnnStatus:返回状态码,具体参见undefined

[object Object]

aclnnQuantMatmulV2

  • 参数说明:

    • workspace(void*, 入参):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnQuantMatmulV2GetWorkspaceSize获取。
    • executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。
    • stream(aclrtStream, 入参):指定执行任务的 AscendCL Stream流。
  • 返回值:

    aclnnStatus:返回状态码,具体参见undefined

约束与限制

接口迁移到aclnnQuantMatmulV4接口的方法:

  • 输入x1,x2,bias,adjX1和adjX2可以直接转为aclnnQuantMatmulV4接口中的x1,x2,bias,transposeX1和transposeX2。
  • 输入deqScale为UINT64的aclTensor,数据类型与aclnnQuantMatmulV4接口中的scale一致。aclnnQuantMatmulV2接口的deqScale shape是1维(t,),t = align(n, 16)。aclnnQuantMatmulV4接口中的scale shape是1维(t,),t = 1或n。直接将原始FLOAT型量化参数调用aclnnTransQuantParamV2输出数据类型为UINT64且shape为(n,)的aclTensor(参考undefined),记为scale,对标aclnnQuantMatmulV4接口中的scale。
  • aclnnQuantMatmulV4接口中的可选输入offset/pertokenScaleOptional设置为nullptr。
  • 接口参数设置为aclnnQuantMatmulV4GetWorkspaceSize(x1, x2, scale, nullptr, nullptr, bias, adjX1, adjX2, out, workspaceSize, executor)

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考undefined

[object Object]