aclnnMish&aclnnInplaceMish
支持的产品型号
- Atlas 训练系列产品。
- Atlas A2训练系列产品/Atlas 800I A2推理产品。
接口原型
aclnnMish和aclnnInplaceMish实现相同的功能,使用区别如下,请根据自身实际场景选择合适的算子。
- aclnnMish:需新建一个输出张量对象存储计算结果。
- aclnnInplaceMish:无需新建输出张量对象,直接在输入张量的内存中存储计算结果。
每个算子分为,必须先调用“aclnnMishGetWorkspaceSize”或者“aclnnInplaceMishGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMish”或者“aclnnInplaceMish”接口执行计算。
aclnnStatus aclnnMishGetWorkspaceSize(const aclTensor *self, aclTensor *out, uint64_t *workspaceSize, aclOpExecutor **executor)
aclnnStatus aclnnMish(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)
aclnnStatus aclnnInplaceMishGetWorkspaceSize(aclTensor *selfRef, uint64_t *workspaceSize, aclOpExecutor **executor)
aclnnStatus aclnnInplaceMish(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)
功能描述
- 算子功能:一个自正则化的非单调神经网络激活函数。
- 计算公式:
aclnnMishGetWorkspaceSize
参数说明:
- self(aclTensor*, 计算输入):公式中的输入self,Device侧的aclTensor,数据类型支持FLOAT16、FLOAT、BFLOAT16(仅Atlas A2训练系列产品/Atlas 800I A2推理产品支持)。支持,支持ND。
- out(aclTensor*, 计算输出):公式中的输出out,Device侧的aclTensor,数据类型支持FLOAT16、FLOAT、BFLOAT16(仅Atlas A2训练系列产品/Atlas 800I A2推理产品支持)。数据类型和shape与self相同,支持ND,且需要与self一致。
- workspaceSize(uint64_t*, 出参):返回用户需要在Device侧申请的workspace大小。
- executor(aclOpExecutor**, 出参):返回op执行器,包含了算子计算流程。
返回值:
[object Object]
aclnnMish
参数说明:
- workspace(void*, 入参):在Device侧申请的workspace内存地址。
- workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnMishGetWorkspaceSize获取。
- executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。
- stream(aclrtStream, 入参):指定执行任务的 AscendCL Stream流。
aclnnInplaceMishGetWorkspaceSize
参数说明:
返回值:
[object Object]
aclnnInplaceMish
参数说明:
- workspace(void*, 入参):在Device侧申请的workspace内存地址。
- workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnInplaceMishGetWorkspaceSize获取。
- executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。
- stream(aclrtStream, 入参):指定执行任务的 AscendCL Stream流。
返回值:
约束与限制
无
调用示例
aclnnMish接口调用示例:
[object Object]
aclnnInplaceMish接口调用示例:
[object Object]