aclnnMul&aclnnInplaceMul
支持的产品型号
- Atlas 推理系列产品。
- Atlas 训练系列产品。
- Atlas A2训练系列产品/Atlas 800I A2推理产品。
- Atlas 200/500 A2推理产品。
接口原型
aclnnMul和aclnnInplaceMul实现相同的功能,使用区别如下,请根据自身实际场景选择合适的算子。
- aclnnMul:需新建一个输出张量对象存储计算结果。
- aclnnInplaceMul:无需新建输出张量对象,直接在输入张量的内存中存储计算结果。
每个算子分为,必须先调用“aclnnMulGetWorkspaceSize”或者“aclnnInplaceMulGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMul”或者“aclnnInplaceMul”接口执行计算。
aclnnStatus aclnnMulGetWorkspaceSize(const aclTensor *self, const aclTensor *other, aclTensor *out, uint64_t *workspaceSize, aclOpExecutor **executor)
aclnnStatus aclnnMul(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)
aclnnStatus aclnnInplaceMulGetWorkspaceSize(aclTensor *selfRef, const aclTensor *other, uint64_t *workspaceSize, aclOpExecutor **executor)
aclnnStatus aclnnInplaceMul(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)
功能描述
算子功能:完成tensor与tensor间的乘法计算。
计算公式:
aclnnMulGetWorkspaceSize
参数说明:
self(aclTensor*,计算输入):公式中的输入
self
,数据类型支持FLOAT、FLOAT16、DOUBLE、INT32、INT64、INT16、INT8、UINT8、BOOL、COMPLEX128、COMPLEX64、BFLOAT16(仅Atlas A2训练系列产品/Atlas 800I A2推理产品),且数据类型与other的数据类型需满足,shape需要与other满足。支持,支持ND。other(aclTensor*,计算输入):公式中的输入
other
,数据类型支持FLOAT、FLOAT16、DOUBLE、INT32、INT64、INT16、INT8、UINT8、BOOL、COMPLEX128、COMPLEX64、BFLOAT16(仅Atlas A2训练系列产品/Atlas 800I A2推理产品),且数据类型与self的数据类型需满足,shape需要与self满足。支持,支持ND。out(aclTensor*, 计算输出):公式中的输出
out
,数据类型支持FLOAT、FLOAT16、DOUBLE、INT32、INT64、INT16、INT8、UINT8、BOOL、COMPLEX128、COMPLEX64、BFLOAT16(仅Atlas A2训练系列产品/Atlas 800I A2推理产品),且数据类型需要是self与other推导之后可转换的数据类型。shape需要与self和other进行broadcast之后的shape相等。支持,支持ND。workspaceSize(uint64_t*, 出参):返回需要在Device侧申请的workspace大小。
executor(aclOpExecutor**, 出参):返回op执行器,包含了算子计算流程。
返回值:
aclnnMul
参数说明:
workspace(void*, 入参):在Device侧申请的workspace内存地址。
workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnMulGetWorkspaceSize获取。
executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。
stream(aclrtStream, 入参):指定执行任务的AscendCL Stream流。
返回值:
aclnnInplaceMulGetWorkspaceSize
参数说明:
selfRef(aclTensor*,计算输入|计算输出):公式中的输入
self
与输出out
,数据类型支持FLOAT、FLOAT16、DOUBLE、INT32、INT64、INT16、INT8、UINT8、BOOL、COMPLEX128、COMPLEX64、BFLOAT16(仅Atlas A2训练系列产品/Atlas 800I A2推理产品),数据类型需要与other的数据类型满足数据类型推导规则(参见),且推导后的数据类型需支持转换到selfRef的数据类型。shape需要与other满足,且broadcast后的shape需与selfRef的shape相等。支持,支持ND。other(aclTensor*,计算输入):公式中的输入
other
,数据类型支持FLOAT、FLOAT16、DOUBLE、INT32、INT64、INT16、INT8、UINT8、BOOL、COMPLEX128、COMPLEX64、BFLOAT16(仅Atlas A2训练系列产品/Atlas 800I A2推理产品),且数据类型需要与selfRef的数据类型满足数据类型推导规则(参见),shape需要与selfRef满足。支持,支持ND。workspaceSize(uint64_t*, 出参):返回需要在Device侧申请的workspace大小。
executor(aclOpExecutor**, 出参):返回op执行器,包含了算子计算流程。
返回值:
aclnnInplaceMul
参数说明:
workspace(void*, 入参):在Device侧申请的workspace内存地址。
workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnInplaceMulGetWorkspaceSize获取。
executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。
stream(aclrtStream, 入参):指定执行任务的AscendCL Stream流。
返回值:
约束与限制
无。
调用示例
aclnnMul示例代码:
aclnnInplaceMul示例代码: