昇腾社区首页
中文
注册

aclnnCummax

支持的产品型号

  • Atlas 训练系列产品。
  • Atlas A2训练系列产品/Atlas 800I A2推理产品。

接口原型

每个算子分为,必须先调用“aclnnCummaxGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnCummax”接口执行计算。

  • aclnnStatus aclnnCummaxGetWorkspaceSize(const aclTensor *self, int64_t dim, aclTensor *valuesOut, aclTensor *indicesOut, uint64_t *workspaceSize, aclOpExecutor **executor)
  • aclnnStatus aclnnCummax(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)

功能描述

  • 算子功能:计算self中的累积最大值,并返回最大值以及对应的索引。

  • 计算公式: valuesOut:

    valuesOuti=max(self1,self2,self3,......,selfi)valuesOut{i} = max(self_{1}, self_{2}, self_{3}, ...... , self_{i})

    indicesOut:

    indicesOuti=argmax(self1,self2,self3,......,selfi)indicesOut{i} = argmax(self_{1}, self_{2}, self_{3}, ...... , self_{i})

aclnnCummaxGetWorkspaceSize

  • 参数说明:

    • self(aclTensor*, 计算输入):Device侧的aclTensor,数据类型支持FLOAT16、FLOAT、DOUBLE、UINT8、INT8、INT16、INT32、INT64、BOOL,支持支持ND,数据维度不支持8维以上, 且shape必须与valuesOut、indicesOut一致。
    • dim(int64_t, 计算输入):host侧的整数,数据类型支持INT64。
    • valuesOut(aclTensor*, 计算输出):Device侧的aclTensor,数据类型支持FLOAT16、FLOAT、DOUBLE、UINT8、INT8、INT16、INT32、INT64、BOOL,支持支持ND,数据维度不支持8维以上, 且shape必须与self、indicesOut一致。
    • indicesOut(aclTensor*, 计算输出):Device侧的aclTensor,数据类型支持INT32、INT64,支持支持ND,数据维度不支持8维以上, 且shape必须与self、valuesOut一致。
    • workspaceSize(uint64_t *, 计算输出): 返回用户需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor **, 计算输出): 返回op执行器,包含了算子计算流程。
  • 返回值:

    aclnnStatus:返回状态码,具体参见

    [object Object]

aclnnCummax

  • 参数说明:

    • workspace(void *, 计算输入): 在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t, 计算输入): 在Device侧申请的workspace大小,由第一段接口aclnnCummaxGetWorkspaceSize获取。
    • executor(aclOpExecutor *, 计算输入): op执行器,包含了算子计算流程。
    • stream(const aclrtStream, 计算输入): 指定执行任务的 AscendCL Stream流。
  • 返回值:

    aclnnStatus :返回状态码,具体参见

约束与限制

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考

[object Object]