aclnnMv
支持的产品型号
- Atlas 推理系列产品。
- Atlas 训练系列产品。
- Atlas A2训练系列产品。
接口定义
每个算子分为,必须先调用“aclnnMvGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMv”接口执行计算。
aclnnStatus aclnnMvGetWorkspaceSize(const aclTensor *self, const aclTensor *vec, aclTensor *out, int8_t cubeMathType, uint64_t *workspaceSize, aclOpExecutor **executor)
aclnnStatus aclnnMv(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, const aclrtStream stream)
功能描述
算子功能:计算矩阵input与向量vec的乘积。
计算公式:
其中为n*m的二维张量,为长度为m的一维张量,为长度为n的一维张量。
示例:
[object Object]
aclnnMvGetWorkspaceSize
输入参数:
- self(const aclTensor *,计算输入): 公式中的,数据类型支持FLOAT、FLOAT16。支持,shape为n*m的二维张量,支持ND。
- vec(const aclTensor *,计算输入): 公式中的,数据类型支持FLOAT、FLOAT16。数据类型与self保持一致,支持,shape为长度为m的一维张量,支持ND,且数据类型、shape需要与grad_output, grad_input一致。
- out(aclTensor *,计算输出): 公式中的,数据类型支持FLOAT、FLOAT16。且数据类型与self保持一致,支持,shape为长度为n的一维张量,支持ND。
- cubeMathType(int8,计算输入): 判断Cube单元使用哪种计算逻辑进行运算,数据类型支持INT8,支持的枚举值如下:
- 0:KEEP_DTYPE,保持输入的数据类型进行计算。当输入是FLOAT,Atlas 训练系列产品Cube计算单元暂不支持,取0时会报错。
- 1:ALLOW_FP32_DOWN_PRECISION,允许将输入数据降精度计算。当输入是FLOAT,Atlas 训练系列产品转换为FLOAT16计算,Atlas A2训练系列产品转换为HFLOAT32计算。
- 2:USE_FP16,允许转换为数据类型FLOAT16进行计算。当输入数据类型是FLOAT,转换为FLOAT16计算。
- 3:USE_HF32,允许转换为数据类型HFLOAT32计算。当输入是FLOAT,Atlas 训练系列产品Cube计算单元暂不支持,取3时会报错,Atlas A2训练系列产品转换为HFLOAT32计算。
- workspaceSize(uint64_t *,出参):返回用户需要在Device侧申请的workspace大小。
- executor(aclOpExecutor **,出参):返回op执行器,包含了算子计算流程。
返回值:
[object Object]
aclnnMv
参数说明:
- workspace(void *,入参):在Device侧申请的workspace内存地址。
- workspaceSize(uint64_t,入参):在Device侧申请的workspace大小,由第一段接口aclnnMvGetWorkspaceSize获取。
- executor(aclOpExecutor *,入参):op执行器,包含了算子计算流程。
- stream(const aclrtStream,入参):指定执行任务的 AscendCL Stream流。
返回值:
约束与限制
无。
调用示例
[object Object]