昇腾社区首页
中文
注册
开发者
下载

aclnnMoeDistributeCombineV2

产品支持情况

[object Object]undefined

功能说明

  • 接口功能:当存在TP域通信时,先进行ReduceScatterV通信,再进行AllToAllV通信,最后将接收的数据整合(乘权重再相加);当不存在TP域通信时,进行AllToAllV通信,最后将接收的数据整合(乘权重再相加)。

    相较于[object Object]接口,该接口变更如下:

    • 输入了更详细的token信息辅助[object Object]高效地进行全卡同步,因此原接口中shape为[object Object][object Object]入参替换为shape为[object Object][object Object]参数;
    • 新增[object Object]入参,支持在[object Object]为0时,由用户输入共享专家计算后的token;
    • 新增[object Object]入参,代替[object Object][object Object]环境变量。

    详细说明请参考以下参数说明。

  • 计算公式:

rsOut=ReduceScatterV(expandX)ataOut=AllToAllV(rsOut)xOut=Sum(expertScalesataOut+expertScalessharedExpertX)rsOut = ReduceScatterV(expandX)\\ ataOut = AllToAllV(rsOut)\\ xOut = Sum(expertScales * ataOut + expertScales * sharedExpertX)
[object Object]

函数原型

每个算子分为,必须先调用 “aclnnMoeDistributeCombineV2GetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMoeDistributeCombineV2”接口执行计算。

[object Object]
[object Object]

aclnnMoeDistributeCombineV2GetWorkspaceSize

  • 参数说明

    [object Object]
    • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:

      • 不支持共享专家场景。
      • epSendCounts 的shape为 (moeExpertNum + 2 * globalBs * K * serverNum, ),其中K指topK个专家数,前moeExpertNum个数表示从EP通信域各卡接收的token数,后2 * globalBs * K * serverNum个数用于存储机间/机内通信前,combine可提前做reduce的token个数和通信区偏移,globalBs=0时按Bs * epWorldSize计算。
      • 当前不支持TP域通信。
      • xActiveMaskOptional 依commAlg取值,"fullmesh"要求为1D Tensor,shape为(Bs, );true需排在false前(例:{true, false, true}非法);"hierarchy"当前版本不支持,传空指针即可。
      • exapndScalesOptional 要求为1D Tensor,shape为 (A, )。
      • sharedExpertXOptional 为预留参数,当前版本不支持,传空指针即可。
      • epWorldSize 依commAlg取值,"fullmesh"支持16、32、64、128、256;"hierarchy"支持16、32、64。
      • moeExpertNum 取值范围(0, 512],还需满足moeExpertNum / (epWorldSize - sharedExpertRankNum) <= 24。
      • groupTp 当前版本不支持,传空字符即可。
      • tpWorldSize 当前版本不支持,传0即可。
      • tpRankId 当前版本不支持,传0即可。
      • expertShardType 当前版本不支持,传0即可。
      • sharedExpertNum 当前版本不支持,传0即可。
      • sharedExpertRankNum 当前版本不支持,传0即可。
      • commQuantMode 取值为2仅当commAlg为"hierarchy"或HCCL_INTRA_PCIE_ENABLE=1且HCCL_INTRA_ROCE_ENABLE=0且驱动版本≥25.0.RC1.1时支持。
      • commAlg 支持nullptr、""、"fullmesh"、"hierarchy";推荐配置"hierarchy"并搭配≥25.0.RC1.1版本驱动;nullptr和""依HCCL环境变量选择算法(不推荐);"fullmesh"通过RDMA直传token;"hierarchy"经机内、跨机两次发送减少跨机数据量。
    • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:

      • epSendCounts 的shape为 (epWorldSize * max(tpWorldSize, 1) * localExpertNum, )。
      • 有TP域通信时 tpSendCountsOptional 为1D Tensor,shape为 (tpWorldSize, )。
      • xActiveMaskOptional 要求为1D或2D Tensor(1D时shape为(BS, ),2D时shape为(BS, K));1D时true需排在false前,2D时token对应K个值全为false则不参与通信。
      • exapndScalesOptional 预留参数,当前版本不支持,传空指针即可。
      • sharedExpertXOptional 要求为2D或3D Tensor(2D时shape为 (Bs, H);3D时前两位乘积等于Bs、第三维等于H);可传或不传,传入时sharedExpertRankNum需为0。
      • epWorldSize 取值支持[2, 768]。
      • moeExpertNum 取值范围(0, 1024]。
      • groupTp 字符串长度范围为[1, 128),不能和groupEp相同。
      • tpWorldSize 取值范围[0, 2],0和1表示无TP域通信,有TP域通信时仅支持2。
      • tpRankId 取值范围[0, 1],同一个TP通信域中各卡的tpRankId不重复;无TP域通信时传0即可。
      • expertShardType 当前仅支持传0,表示共享专家卡排在MoE专家卡前面。
      • sharedExpertNum 当前取值范围[0, 4]。
      • sharedExpertRankNum 取值范围[0, epWorldSize);为0时需满足sharedExpertNum为0或1,不为0时需满足sharedExpertRankNum % sharedExpertNum = 0。
      • commQuantMode 取值为2仅当tpWorldSize < 2时可使能。
      • commAlg 当前版本不支持,传空指针即可。
  • 返回值

    aclnnStatus:返回状态码,具体参见

    第一段接口完成入参校验,出现以下场景时报错:

    [object Object]

aclnnMoeDistributeCombineV2

  • 参数说明

    [object Object]
  • 返回值

    返回aclnnStatus状态码,具体参见

约束说明

  1. 确定性计算:

    • aclnnMoeDistributeCombineV2默认确定性实现。
  2. [object Object]接口与[object Object]接口必须配套使用,具体参考

  3. 在不同产品型号、不同通信算法或不同版本中,[object Object]的Tensor输出[object Object][object Object][object Object][object Object]中的元素值可能不同,使用时直接将上述Tensor传给[object Object]对应参数即可,模型其他业务逻辑不应对其存在依赖。

  4. 调用接口过程中使用的[object Object][object Object][object Object][object Object][object Object][object Object][object Object][object Object][object Object][object Object]参数及[object Object]取值所有卡需保持一致,网络中不同层中也需保持一致,且和[object Object]对应参数也保持一致。

  5. 参数说明里shape格式说明:

    • A:表示本卡需要分发的最大token数量,取值范围如下:
      • 对于共享专家,需满足 (A = Bs * epWorldSize * sharedExpertNum / sharedExpertRankNum)。
      • 对于MoE专家,当[object Object]为0时,需满足 (A >= Bs * epWorldSize * min(localExpertNum, K));当[object Object]非0时,需满足 (A >= globalBs * min(localExpertNum, K))。
    • H:表示hidden size(隐藏层大小):
      • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:依commAlg取值,"fullmesh"支持(0, 7168]且为32的整数倍;"hierarchy"并且驱动版本≥25.0.RC1.1时支持(0, 10*1024]且为32的整数倍。
      • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:取值为[1024, 8192]。
    • Bs:表示batch sequence size(本卡最终输出的token数量):
      • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:取值范围为 (0 < Bs ≤ 256)。
      • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:取值范围为 (0 < Bs ≤ 512)。
    • K:表示选取topK个专家,取值范围为 (0 < K ≤ 16) 且满足 (0 < K ≤ moeExpertNum)。
    • serverNum:表示服务器的节点数,取值仅支持2、4、8。
    • localExpertNum:表示本卡专家数量:
      • 对于共享专家卡,(localExpertNum = 1)。
      • 对于MoE专家卡,(localExpertNum = moeExpertNum / (epWorldSize - sharedExpertRankNum));当(localExpertNum > 1)时,不支持TP域通信。
  6. HCCL_BUFFSIZE

    调用本接口前需检查[object Object]环境变量取值是否合理,该环境变量表示单个通信域占用内存大小,单位MB,不配置时默认为200MB:

    • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:
      • commAlg为""或nullptr:依HCCL环境变量选择“fullmesh”或“hierarchy”公式。
      • commAlg为"fullmesh":设置大小要求 (≥ 2 * (Bs * epWorldSize * min(localExpertNum, K) * H * sizeof(uint16) + 2MB))。
      • commAlg为"hierarchy":设置大小要求 (≥ moeExpertNum * Bs * (H * sizeof(dtypeX) + 4 * ((K + 7) / 8 * 8) * sizeof(uint32)) + 4MB + 100MB),不要求 (moeExpertNum / (epWorldSize - sharedExpertRankNum) ≤ 24)。
    • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:
      • ep通信域内:设置大小要求 (≥ 2) 且满足 (≥ 2 * (localExpertNum * maxBs * epWorldSize * Align512(Align32(2 * H) + 44) + (K + sharedExpertNum) * maxBs * Align512(2 * H)))([object Object]需使用MoE专家卡的本卡专家数;[object Object][object Object])。
      • tp通信域内:设置大小要求>=A * (H * 2 + 128) * 2。
  7. HCCL_INTRA_PCIE_ENABLE和HCCL_INTRA_ROCE_ENABLE: [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:该环境变量不再推荐使用,建议通过[object Object]配置为"hierarchy"。

  8. 本文公式中的“/”表示整除。

  9. 通信域使用约束:

  • 一个模型中的[object Object][object Object]仅支持相同EP通信域,且该通信域中不允许有其他算子。
  • 一个模型中的[object Object][object Object]仅支持相同TP通信域或都不支持TP通信域;有TP通信域时,该通信域中不允许有其他算子。
  • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:一个通信域内的节点需在一个超节点内,不支持跨超节点。
  1. 组网约束:
  • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:多机场景仅支持交换机组网,不支持双机直连组网。

调用示例

  • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:

    • 文件准备:

      1. 按照下方指导创建rank_table_m2.json文件并修改。

      2. 将项目拷贝到两台服务器中,并根据机器的device ip配置rank_table_m2.json文件内容。注意两机rank_table_m2.json文件保持一致。

      3. 安装cann包,并根据编译运行。

    • 关于rankTable:

      1. 开发者可以通过ranktable文件配置参与集合通信的NPU资源信息,详细配置请参考中“通信功能开发>集群信息配置>ranktable文件配置资源信息”。

      2. 使用[object Object] 或者[object Object]查询机器的device ip。然后参考集合通信文档填写json文件。

      [object Object]
    • 环境变量配置:

      [object Object]
    • 机器数量设置: 两机16卡场景中,需将参数MACHINE_NUM设置为2,即

      [object Object]

      单机16卡场景则无需修改。

  • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:

    无需配置ranktable文件以及环境变量RANK_TABLE_FILE、FIRST_RANK_ID。

示例代码如下,仅供参考,具体编译和执行过程请参考

  • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]、[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:
    [object Object]