昇腾社区首页
中文
注册

aclnnMoeFinalizeRoutingV2

支持的产品型号

  • Atlas A2训练系列产品/Atlas 800I A2推理产品

接口原型

每个算子分为,必须先调用“aclnnMoeFinalizeRoutingV2GetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMoeFinalizeRoutingV2”接口执行计算。

  • aclnnStatus aclnnMoeFinalizeRoutingV2GetWorkspaceSize(const aclTensor* expandedX, const aclTensor* expandedRowIdx, const aclTensor* x1Optional, const aclTensor* x2Optional, const aclTensor* biasOptional, const aclTensor* scalesOptional,const aclTensor* expertIdxOptional, int64_t dropPadModeOptional, const aclTensor* out, uint64_t* workspaceSize, aclOpExecutor** executor)
  • aclnnStatus aclnnMoeFinalizeRoutingV2(void* workspace, uint64_t workspaceSize, aclOpExecutor* executor, const aclrtStream stream)

功能描述

  • 算子功能:MoE计算中,最后处理合并MoE FFN的输出结果。
  • 计算公式expertid=expertIdx[i,k]expertid=expertIdx[i,k] out(i,j)=x1i,j+x2i,j+k=0K(scalesi,k(expandedXexpandedRowIdxi+knumrows,j+biasexpertid,j))out(i,j)=x1_{i,j}+x2_{i,j}+\sum_{k=0}^{K}(scales_{i,k}*(expandedX_{expandedRowIdx_{i+k*num_rows},j}+bias_{expertid,j}))

aclnnMoeFinalizeRoutingV2GetWorkspaceSize

  • 参数说明:

    • expandedX (aclTensor*,计算输入):Device侧的aclTensor,公式中的expandedX ,MoE的FFN输出,要求是一个2D的Tensor,数据类型支持FLOAT16、BFLOAT16、FLOAT32,要求为ND。限制:其shape支持(NUM_ROWS * K, H),NUM_ROWS为行数,K为从总的专家E中选出K个专家,H为列数。
    • expandedRowIdx(aclTensor*,计算输入):Device侧的aclTensor,公式中的expandedRowIdx,要求是一个1D的Tensor,数据类型支持INT32。限制:其shape支持(NUM_ROWS * K),dropPadModeOptional参数值为0时,Tensor中的值取值范围是[0,NUM_ROWS * K-1]。
    • x1Optional(aclTensor*,可选计算输入):Device侧的aclTensor,公式中的x1,要求是一个2D的Tensor,数据类型要求与expandedX一致 ,shape要求与out的shape一致。
    • x2Optional(aclTensor*,可选计算输入):Device侧的aclTensor,公式中的x2,要求是一个2D的Tensor,数据类型要求与expandedX一致 ,shape要求与out的shape一致。在x1Optional参数未输入的情况下,x2Optional参数也不能输入。
    • biasOptional(aclTensor*,可选计算输入):Device侧的aclTensor,公式中的bias,要求是一个2D的Tensor,数据类型要求与expandedX一致。限制:其shape支持(E,H),E为总的专家个数,H为列数。
    • scalesOptional(aclTensor*,可选计算输入):Device侧的aclTensor,公式中的scales,要求是一个2D的Tensor,数据类型要求与expandedX一致 ,限制:其shape支持(NUM_ROWS,K)。
    • expertIdxOptional(aclTensor*,可选计算输入):Device侧的aclTensor,公式中的expertIdx,要求是一个2D的Tensor,数据类型支持INT32。限制:其shape支持(NUM_ROWS,K),Tensor中的值取值范围是[0, E-1],E为总的专家个数。
    • dropPadModeOptional(int64_t,可选计算输入): int64数据类型,表示是否支持丢弃模式,取值范围为0,默认值为0。
    • out(aclTensor*,计算输出):Device侧的aclTensor,公式中的输出,要求是一个2D的Tensor,数据类型与expandedX 需要保持一致。限制:其shape支持(NUM_ROWS, H)。
    • workspaceSize(uint64_t*,出参):返回需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor**,出参):返回op执行器,包含了算子计算流程。
  • 返回值:

    返回aclnnStatus状态码,具体参见

    [object Object]

aclnnMoeFinalizeRoutingV2

  • 参数说明:

    • workspace(void*,入参):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t,入参):在Device侧申请的workspace大小,由第一段接口aclnnMoeFinalizeRoutingV2GetWorkspaceSize获取。
    • executor(aclOpExecutor*,入参):op执行器,包含了算子计算流程。
    • stream(const aclrtStream,入参):指定执行任务的AscendCL stream流。
  • 返回值:

    返回aclnnStatus状态码,具体参见

约束与限制

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考

[object Object]