昇腾社区首页
中文
注册

aclnnQuantMatmul

支持的产品型号

  • Atlas 训练系列产品。
  • Atlas A2训练系列产品。

接口原型

每个算子分为,必须先调用“aclnnQuantMatmulGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnQuantMatmul”接口执行计算。

  • aclnnStatus aclnnQuantMatmulGetWorkspaceSize(const aclTensor *x1, const aclTensor *x2, const aclTensor *bias, float deqScale, const aclTensor *out, uint64_t *workspaceSize, aclOpExecutor **executor)

  • aclnnStatus aclnnQuantMatmul(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)

功能描述

  • 算子功能:完成量化的矩阵乘计算,最小支持维度为2维,最大支持输入维度为3维。

    相似接口有aclnnMm(仅支持2维Tensor作为输入的矩阵乘)和aclnnBatchMatMul(仅支持三维的矩阵乘,其中第一维是Batch维度)。

  • 计算公式:

out=(x1@x2+bias)deqScaleout = (x1@x2 + bias) * deqScale

aclnnQuantMatmulGetWorkspaceSize

  • 参数说明

    • x1(const aclTensor *, 计算输入):Device侧的2维至3维aclTensor,维度与x2一致,不支持broadcast,支持ND,数据类型支持INT8,且数据类型需要与x2满足
    • x2(const aclTensor *, 计算输入):Device侧的2维至3维aclTensor,维度与x1一致,不支持broadcast,支持ND,数据类型支持INT8,且数据类型需要与x1满足
    • bias(const aclTensor *, 计算输入):Device侧的1维Tensor,shape支持一维(n, ),公式输入bias,数据类型支持INT32,支持ND。该Bias是经过量化特殊处理过的Bias。 量化特殊处理过程:biasINT32=round(round(biasFP16/deqScale)offsetXwINT8)biasINT32 = round(round(biasFP16/deqScale) - offsetX * wINT8)
    • deqScale(float, 计算输入):公式中的输入depScale,量化参数。
    • out(const aclTensor *, 计算输出):Device侧的aclTensor,数据类型支持FLOAT16,Shape需要是x1与x2经过推导之后的Shape,支持ND
    • workspaceSize(uint64_t *, 出参):返回用户需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor **, 出参):返回op执行器,包含了算子计算流程。
  • 返回值:

    aclnnStatus:返回状态码,具体参见

    [object Object]

aclnnQuantMatmul

  • 参数说明:

    • workspace(void *, 入参):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnQuantMatmulGetWorkspaceSize获取。
    • executor(aclOpExecutor *, 入参):op执行器,包含了算子计算流程。
    • stream(const aclrtStream, 入参):指定执行任务的 AscendCL Stream流。
  • 返回值: aclnnStatus: 返回状态码,具体参见

约束与限制

无。

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考

[object Object]