aclnnAddmv
支持的产品型号
- [object Object]Atlas 推理系列产品[object Object]。
- [object Object]Atlas 训练系列产品[object Object]。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品[object Object]。
接口原型
每个算子分为undefined,必须先调用“aclnnAddmvGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnAddmv”接口执行计算。
aclnnStatus aclnnAddmvGetWorkspaceSize(const aclTensor* self, const aclTensor* mat, const aclTensor* vec, const aclScalar* alpha, const aclScalar* beta, aclTensor* out, int8_t cubeMathType, uint64_t* workspaceSize, aclOpExecutor** executor)
aclnnStatus aclnnAddmv(void* workspace, uint64_t workspaceSize, aclOpExecutor* executor, aclrtStream stream)
功能描述
- 算子功能:完成矩阵乘计算,然后和向量相加。
- 计算公式:
aclnnAddmvGetWorkspaceSize
参数说明:
- self(aclTensor*, 计算输入):Device侧的aclTensor,需要和后续乘法结果相加的1维向量,数据类型支持FLOAT16、FLOAT、INT32、INT64、INT16、INT8、UINT8、DOUBLE、BOOL,且数据类型需要与构成互相推导关系(参见undefined),shape在alpha不为0时需要与 满足undefined,alpha为0时需要与 相同。支持undefined,undefined支持ND。
- mat(aclTensor*, 计算输入):Device侧的aclTensor,和vec进行乘法运算的2维矩阵,数据类型支持FLOAT16、FLOAT、INT32、INT64、INT16、INT8、UINT8、DOUBLE、BOOL,数据类型需要与self构成互相推导关系(参见undefined),shape需要与 vec 满足乘法关系。支持undefined,undefined支持ND。
- vec(aclTensor*, 计算输入):Device侧的aclTensor,和mat进行乘法运算的1维向量,数据类型支持FLOAT16、FLOAT、INT32、INT64、INT16、INT8、UINT8、DOUBLE、BOOL,数据类型需要与self构成互相推导关系(参见undefined),shape需要与 mat 满足乘法关系。支持undefined,undefined支持ND。
- alpha(aclScalar*, 计算输入):公式中的α,Host侧的aclScalar,mat和vec乘积的系数,数据类型支持FLOAT、FLOAT16、DOUBLE、INT8、INT16、INT32、INT64、UINT8。
- beta(aclScalar*, 计算输入):公式中的β,Host侧的aclScalar,self的系数,数据类型支持FLOAT、FLOAT16、DOUBLE、INT8、INT16、INT32、INT64、UINT8。
- out(aclTensor*, 计算输出):Device侧的aclTensor,指定的1维输出向量;数据类型支持FLOAT16、FLOAT、INT32、INT64、INT16、INT8、UINT8、DOUBLE、BOOL,且数据类型需要是self, mat, vec, alpha, beta推导后的数据类型(参见undefined),shape与mat和vec的乘积相同,undefined支持ND。
- cubeMathType(INT8,计算输入):用于指定Cube单元的计算逻辑,Host侧的整型。数据类型支持INT8。注意:如果输入的数据类型存在互推导关系,该参数默认对互推导后的数据类型进行处理。支持的枚举值如下:
- 0:KEEP_DTYPE,保持输入的数据类型进行计算。
- [object Object]Atlas 训练系列产品[object Object]、[object Object]Atlas 推理系列产品[object Object]:当输入数据类型为FLOAT32时不支持该选项。
- 1:ALLOW_FP32_DOWN_PRECISION,支持将输入数据降精度计算。
- [object Object]Atlas 训练系列产品[object Object]、[object Object]Atlas 推理系列产品[object Object]:当输入数据类型为FLOAT32时,会转换为FLOAT16计算。当输入为其他数据类型时不做处理。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品[object Object]:当输入数据类型为FLOAT32时,会转换为HFLOAT32计算。当输入为其他数据类型时不做处理。
- 2:USE_FP16,支持将输入降精度至FLOAT16计算。
- 3:USE_HF32,支持将输入降精度至数据类型HFLOAT32计算。
- [object Object]Atlas 训练系列产品[object Object]、[object Object]Atlas 推理系列产品[object Object]:不支持该选项。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品[object Object]:当输入数据类型为FLOAT32时,会转换为HFLOAT32计算。当输入为其他数据类型时不支持该选项。
- 0:KEEP_DTYPE,保持输入的数据类型进行计算。
- workspaceSize(uint64_t*, 出参):返回需要在Device侧申请的workspace大小。
- executor(aclOpExecutor**, 出参):返回op执行器,包含了算子计算流程。
返回值:
aclnnStatus:返回状态码,具体参见undefined。
[object Object]
aclnnAddmv
参数说明:
- workspace(void *, 入参):在Device侧申请的workspace内存地址。
- workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnAddmvGetWorkspaceSize获取。
- executor(aclOpExecutor *, 入参):op执行器,包含了算子计算流程。
- stream(aclrtStream, 入参):指定执行任务的AscendCL Stream流。
返回值:
aclnnStatus:返回状态码,具体参见undefined。
约束与限制
无
调用示例
示例代码如下,仅供参考,具体编译和执行过程请参考undefined。
[object Object]