昇腾社区首页
中文
注册

aclnnOneHot

支持的产品型号

  • Atlas 推理系列产品。
  • Atlas 训练系列产品。
  • Atlas A2训练系列产品/Atlas 800I A2推理产品。

接口原型

每个算子分为,必须先调用“aclnnOneHotGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnOneHot”接口执行计算。

  • aclnnStatus aclnnOneHotGetWorkspaceSize(const aclTensor* self, int numClasses, const aclTensor* onValue, const aclTensor* offValue, int64_t axis, aclTensor* out, uint64_t* workspaceSize, aclOpExecutor** executor)

  • aclnnStatus aclnnOneHot(void* workspace, uint64_t workspaceSize, aclOpExecutor* executor, aclrtStream stream)

功能描述

  • 算子功能:对长度为n的输入self, 经过one_hot的计算后得到一个大小为[n*k]的输出out,其中k的值为numClasses。

  • 输出的元素满足下列公式:

    out[i][j]={onValue,self[i]=joffValue,self[i]jout[i][j]=\left\{ \begin{aligned} onValue,\quad self[i] = j \\ offValue, \quad self[i] \neq j \end{aligned} \right.
  • 示例:

    [object Object]

aclnnOneHotGetWorkspaceSize

  • 参数说明:

    • self(const aclTensor*, 计算输入):输入的self, 数据类型支持INT32、INT64,支持非连续的Tensor,支持ND。
    • numClasses(int, 计算输入):输入的numClasses,数据类型必须输入INT64。最小值为0。若numClasses的最小值为0,则返回空Tensor。如果self存在元素大于numClasses,这些元素会被编码成全0的tensor。
    • onValue(const aclTensor*,计算输入):公式中的onValue,数据类型支持FLOAT16、FLOAT、INT32、INT64。
    • offValue(const aclTensor*,计算输入):公式中的offValue,数据类型支持FLOAT16、FLOAT、INT32、INT64。
    • axis(int64_t,计算输入):最小值为-1,最大值为self的维度数。若值为-1,编码向量会往self的最后一维插入。
    • out(aclTensor*, 计算输出):公式中的输出out,数据类型支持FLOAT16、FLOAT、INT32、INT64。支持非连续的Tensor,支持ND。
    • workspaceSize(uint64_t*, 出参):返回用户需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor**, 出参):返回op执行器,包含了算子计算流程。
  • 返回值:

    aclnnStatus:返回状态码,具体参见

    [object Object]

aclnnOneHot

  • 参数说明:

    • workspace(void* 入参):在Device侧申请的workspace内存地址。

    • workspaceSize(uint64_t 入参):在Device侧申请的workspace大小,由第一段接口aclnnInplaceOneGetWorkspaceSize获取。

    • executor(aclOpExecutor* 入参):op执行器,包含了算子计算流程。

    • stream(aclrtStream 入参):指定执行任务的 AscendCL Stream流。

  • 返回值:

    aclnnStatus:返回状态码,具体参见

约束与限制

无。

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考

[object Object]