aclnnMm
支持的产品型号
- [object Object]Atlas 推理系列产品[object Object]。
- [object Object]Atlas 训练系列产品[object Object]。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品[object Object]。
接口原型
每个算子分为undefined,必须先调用“aclnnMmGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMm”接口执行计算。
aclnnStatus aclnnMmGetWorkspaceSize(const aclTensor *self, const aclTensor *mat2, aclTensor *out, int8_t cubeMathType, uint64_t *workspaceSize, aclOpExecutor **executor)
aclnnStatus aclnnMm(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)
功能描述
- 算子功能:完成张量self与张量mat2的矩阵乘计算。
- 计算公式:
aclnnMmGetWorkspaceSize
参数说明:
- self(aclTensor*,计算输入):表示矩阵乘的第一个矩阵,公式中的self,Device侧aclTensor。数据类型需要与mat2满足数据类型推导规则(参见undefined和undefined)。数据格式支持ND。shape维度支持2维。支持undefined。
- [object Object]Atlas 训练系列产品[object Object]、[object Object]Atlas 推理系列产品[object Object]:数据类型支持FLOAT16、FLOAT32。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品[object Object]:数据类型支持BFLOAT16、FLOAT16、FLOAT32。
- mat2(aclTensor*,计算输入):表示矩阵乘的第二个矩阵,公式中的mat2,Device侧aclTensor,数据类型需要与self满足数据类型推导规则(参见undefined和undefined)。数据格式支持ND。shape维度支持2维。支持undefined。mat2的Reduce维度需要与self的Reduce维度大小相等。
- [object Object]Atlas 训练系列产品[object Object]、[object Object]Atlas 推理系列产品[object Object]:数据类型支持FLOAT16、FLOAT32。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品[object Object]:数据类型支持BFLOAT16、FLOAT16、FLOAT32。
- out(aclTensor*,计算输出):表示矩阵乘的输出矩阵,公式中的out,Device侧aclTensor。数据类型需要与self与mat2推导之后的数据类型保持一致(参见undefined和undefined)。数据格式支持ND。shape维度支持2维。
- [object Object]Atlas 训练系列产品[object Object]、[object Object]Atlas 推理系列产品[object Object]:数据类型支持FLOAT16、FLOAT32。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品[object Object]:数据类型支持BFLOAT16、FLOAT16、FLOAT32。
- cubeMathType(INT8,计算输入):用于指定Cube单元的计算逻辑,Host侧的整型。数据类型支持INT8。注意:如果输入的数据类型存在互推导关系,该参数默认对互推导后的数据类型进行处理。支持的枚举值如下:
- 0:KEEP_DTYPE,保持输入的数据类型进行计算。
- [object Object]Atlas 训练系列产品[object Object]、[object Object]Atlas 推理系列产品[object Object]:当输入数据类型为FLOAT32时不支持该选项。
- 1:ALLOW_FP32_DOWN_PRECISION,支持将输入数据降精度计算。
- [object Object]Atlas 训练系列产品[object Object]、[object Object]Atlas 推理系列产品[object Object]:当输入数据类型为FLOAT32时,会转换为FLOAT16计算。当输入为其他数据类型时不做处理。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品[object Object]:当输入数据类型为FLOAT32时,会转换为HFLOAT32计算。当输入为其他数据类型时不做处理。
- 2:USE_FP16,支持将输入降精度至FLOAT16计算。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品[object Object]:当输入数据类型为BFLOAT16时不支持该选项。
- 3:USE_HF32,支持将输入降精度至数据类型HFLOAT32计算。
- [object Object]Atlas 训练系列产品[object Object]、[object Object]Atlas 推理系列产品[object Object]:不支持该选项。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品[object Object]:当输入数据类型为FLOAT32时,会转换为HFLOAT32计算。当输入为其他数据类型时不支持该选项。
- 0:KEEP_DTYPE,保持输入的数据类型进行计算。
- workspaceSize(uint64_t*,出参):返回需要在Device侧申请的workspace大小。
- executor(aclOpExecutor**,出参):返回op执行器,包含了算子计算流程。
- self(aclTensor*,计算输入):表示矩阵乘的第一个矩阵,公式中的self,Device侧aclTensor。数据类型需要与mat2满足数据类型推导规则(参见undefined和undefined)。数据格式支持ND。shape维度支持2维。支持undefined。
返回值:
aclnnStatus:返回状态码,具体参见undefined。
[object Object]
aclnnMm
参数说明:
- workspace(void*, 入参):在Device侧申请的workspace内存地址。
- workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnMmGetWorkspaceSize获取。
- executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。
- stream(aclrtStream, 入参):指定执行任务的AscendCL Stream流。
返回值:
aclnnStatus:返回状态码,具体参见undefined。
约束与限制
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品[object Object]:不支持两个输入分别为BFLOAT16和FLOAT16的数据类型推导。不支持两个输入分别为BFLOAT16和FLOAT32的数据类型推导。
调用示例
示例代码如下,仅供参考,具体编译和执行过程请参考undefined。
[object Object]