昇腾社区首页
中文
注册

aclnnMv

支持的产品型号

  • Atlas 推理系列产品。
  • Atlas 训练系列产品。
  • Atlas A2训练系列产品。

接口定义

每个算子分为,必须先调用“aclnnMvGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMv”接口执行计算。

  • aclnnStatus aclnnMvGetWorkspaceSize(const aclTensor *self, const aclTensor *vec, aclTensor *out, int8_t cubeMathType, uint64_t *workspaceSize, aclOpExecutor **executor)
  • aclnnStatus aclnnMv(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, const aclrtStream stream)

功能描述

  • 算子功能:计算矩阵input与向量vec的乘积。

  • 计算公式:

    out=inputvecout = input * vec

    其中inputinput为n*m的二维张量,vecvec为长度为m的一维张量,outout为长度为n的一维张量。

  • 示例:

    [object Object]

aclnnMvGetWorkspaceSize

  • 输入参数:

    • self(const aclTensor *,计算输入): 公式中的inputinput,数据类型支持FLOAT、FLOAT16。支持,shape为n*m的二维张量,支持ND。
    • vec(const aclTensor *,计算输入): 公式中的vecvec,数据类型支持FLOAT、FLOAT16。数据类型与self保持一致,支持,shape为长度为m的一维张量,支持ND,且数据类型、shape需要与grad_output, grad_input一致。
    • out(aclTensor *,计算输出): 公式中的outout,数据类型支持FLOAT、FLOAT16。且数据类型与self保持一致,支持,shape为长度为n的一维张量,支持ND。
    • cubeMathType(int8,计算输入): 判断Cube单元使用哪种计算逻辑进行运算,数据类型支持INT8,支持的枚举值如下:
      • 0:KEEP_DTYPE,保持输入的数据类型进行计算。当输入是FLOAT,Atlas 训练系列产品Cube计算单元暂不支持,取0时会报错。
      • 1:ALLOW_FP32_DOWN_PRECISION,允许将输入数据降精度计算。当输入是FLOAT,Atlas 训练系列产品转换为FLOAT16计算,Atlas A2训练系列产品转换为HFLOAT32计算。
      • 2:USE_FP16,允许转换为数据类型FLOAT16进行计算。当输入数据类型是FLOAT,转换为FLOAT16计算。
      • 3:USE_HF32,允许转换为数据类型HFLOAT32计算。当输入是FLOAT,Atlas 训练系列产品Cube计算单元暂不支持,取3时会报错,Atlas A2训练系列产品转换为HFLOAT32计算。
    • workspaceSize(uint64_t *,出参):返回用户需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor **,出参):返回op执行器,包含了算子计算流程。
  • 返回值:

    aclnnStatus: 返回状态码,具体参见

    [object Object]

aclnnMv

  • 参数说明:

    • workspace(void *,入参):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t,入参):在Device侧申请的workspace大小,由第一段接口aclnnMvGetWorkspaceSize获取。
    • executor(aclOpExecutor *,入参):op执行器,包含了算子计算流程。
    • stream(const aclrtStream,入参):指定执行任务的 AscendCL Stream流。
  • 返回值:

    aclnnStatus: 返回状态码,具体参见

约束与限制

无。

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考

[object Object]