昇腾社区首页
中文
注册
开发者
下载

aclnnMoeDistributeDispatchV2

产品支持情况

[object Object]undefined

功能说明

  • 接口功能:对token数据进行量化(可选),当存在TP域通信时,先进行EP(Expert Parallelism)域的AllToAllV通信,再进行TP(Tensor Parallelism)域的AllGatherV通信;当不存在TP域通信时,进行EP(Expert Parallelism)域的AllToAllV通信。

    相较于[object Object]接口,该接口变更如下:

    1. 输出了更详细的token信息辅助CombineV2系列算子高效地进行全卡同步,因此原接口中shape为[object Object][object Object]出参替换为shape为[object Object][object Object]参数;
    2. 新增[object Object]入参,代替[object Object][object Object]环境变量。

    详细说明请参考以下参数说明。

  • 计算公式:

agOut=AllGatherV(X)expandXOut=AllToAllV(agOut)agOut = AllGatherV(X)\\ expandXOut = AllToAllV(agOut)
  • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:该接口必须与[object Object]配套使用。
  • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:该接口必须与[object Object][object Object]配套使用。
[object Object]

函数原型

每个算子分为,必须先调用 “aclnnMoeDistributeDispatchV2GetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMoeDistributeDispatchV2”接口执行计算。

[object Object]
[object Object]

aclnnMoeDistributeDispatchV2GetWorkspaceSize

  • 参数说明

    [object Object]
    • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:

      • commAlg为"hierarchy"或HCCL_INTRA_PCIE_ENABLE=1且HCCL_INTRA_ROCE_ENABLE=0时,scalesOptional 需传nullptr。
      • xActiveMaskOptional 依commAlg取值,"fullmesh"要求为1D Tensor,shape为(Bs, );true需排在false前(例:{true, false, true}非法);"hierarchy"当前版本不支持,传空指针即可。
      • expertScalesOptional 要求为2D Tensor,shape为(Bs, K)。
      • epWorldSize 依commAlg取值,"fullmesh"支持16、32、64、128、256;"hierarchy"支持16、32、64。
      • moeExpertNum 取值范围(0, 512],还需满足moeExpertNum / (epWorldSize - sharedExpertRankNum) <= 24。
      • groupTp 当前版本不支持,传空字符即可。
      • tpWorldSize、tpRankId、expertShardType、sharedExpertNum、sharedExpertRankNum 当前版本不支持,传0即可。
      • commAlg 支持nullptr、""、"fullmesh"、"hierarchy";推荐配置"hierarchy"并搭配≥25.0.RC1.1版本驱动;nullptr和""依HCCL环境变量选择算法(不推荐);"fullmesh"通过RDMA直传token;"hierarchy"经跨机、机内两次发送优化通信。
      • epRecvCountsOut 的shape为(moeExpertNum + 2globalBsK*serverNum,)(前moeExpertNum个为接收token数,剩余为通信前reduce相关信息)。
      • 当前不支持TP域通信。
      • expandScalesOut 要求为1D Tensor,shape为(A,)。
    • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:

      • xActiveMaskOptional 要求为1D或2D Tensor(1D时shape为(Bs, ),2D时shape为(Bs, K));1D时true需排在false前,2D时token对应K个值全为false则不参与通信。
      • expertScalesOptional 当前版本不支持,传空指针即可。
      • epWorldSize 取值范围[2, 768]。
      • moeExpertNum 取值范围(0, 1024]。
      • groupTp 字符串长度范围为[1, 128),不能和groupEp相同。
      • tpWorldSize 取值范围[0, 2],0和1表示无TP域通信,有TP域通信时仅支持2。
      • tpRankId 取值范围[0, 1],同一个TP通信域中各卡的tpRankId不重复;无TP域通信时传0即可。
      • expertShardType 当前仅支持传0,表示共享专家卡排在MoE专家卡前面。
      • sharedExpertNum 当前取值范围[0, 4]。
      • sharedExpertRankNum 取值范围[0, epWorldSize);为0时需满足sharedExpertNum为0或1,不为0时需满足sharedExpertRankNum % sharedExpertNum = 0。
      • commAlg 当前版本不支持,传空指针即可。
      • epRecvCountsOut 的shape为(epWorldSize * max(tpWorldSize, 1) * localExpertNum,)。
      • 有TP域通信时tpRecvCountsOut为1D Tensor,shape为(tpWorldSize,)。
      • expandScalesOut 当前版本不支持该输出。
  • 返回值:

    aclnnStatus:返回状态码,具体参见

    第一段接口完成入参校验,出现以下场景时报错:

    [object Object]

aclnnMoeDistributeDispatchV2

  • 参数说明

    [object Object]
  • 返回值

    返回aclnnStatus状态码,具体参见

约束说明

  1. 确定性计算:

    • aclnnMoeDistributeDispatchV2默认确定性实现。
  2. [object Object]接口与CombineV2系列算子接口必须配套使用,具体参考

  3. 在不同产品型号、不同通信算法或不同版本中,[object Object]的Tensor输出[object Object][object Object][object Object][object Object]中的元素值可能不同,使用时直接将上述Tensor传给CombineV2系列算子对应参数即可,模型其他业务逻辑不应对其存在依赖。

  4. 调用接口过程中使用的[object Object][object Object][object Object][object Object][object Object][object Object][object Object][object Object][object Object][object Object]参数及[object Object]取值所有卡需保持一致,网络中不同层中也需保持一致,且和CombineV2系列算子对应参数也保持一致。

  5. 参数说明里shape格式说明:

    • A:表示本卡可能接收的最大token数量,取值范围如下:
      • 对于共享专家,需满足 (A = Bs * epWorldSize * sharedExpertNum / sharedExpertRankNum)。
      • 对于MoE专家,当[object Object]为0时,需满足 (A >= Bs * epWorldSize * min(localExpertNum, K));当[object Object]非0时,需满足 (A >= globalBs * min(localExpertNum, K))。
    • H:表示hidden size(隐藏层大小):
      • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:依commAlg取值,"fullmesh"支持(0, 7168]且为32的整数倍;"hierarchy"并且驱动版本≥25.0.RC1.1时支持(0, 10*1024]且为32的整数倍。
      • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:取值范围[1024, 8192]。
    • Bs:表示batch sequence size(本卡最终输出的token数量):
      • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:取值范围为 (0 < Bs ≤ 256)。
      • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:取值范围为 (0 < Bs ≤ 512)。
    • K:表示选取topK个专家,取值范围为 (0 < K ≤ 16) 且满足 (0 < K ≤ moeExpertNum)。
    • serverNum:表示服务器的节点数,取值仅支持2、4、8。
    • localExpertNum:表示本卡专家数量:
      • 对于共享专家卡,(localExpertNum = 1)。
      • 对于MoE专家卡,(localExpertNum = moeExpertNum / (epWorldSize - sharedExpertRankNum));当(localExpertNum > 1)时,不支持TP域通信。
  6. quantMode相关约束

    • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:
      • [object Object]取值为2时,表示pertoken动态量化场景,[object Object]的数据类型支持[object Object]
        • 输入[object Object]可传入空指针。
        • 若输入[object Object]传入有效数据时,其shape为 ([object Object], [object Object])。
    • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:
      • [object Object]取值为2时,表示pertoken动态量化场景,[object Object]的数据类型支持[object Object]
        • 输入[object Object]可传入空指针。
        • 若输入[object Object]传入有效数据且存在共享专家卡时,其shape为 ([object Object] + [object Object], [object Object])。
        • 若输入[object Object]传入有效数据且不存在共享专家卡时,其shape为 ([object Object], [object Object])。
  7. HCCL_BUFFSIZE

    调用本接口前需检查[object Object]环境变量取值是否合理,该环境变量表示单个通信域占用内存大小,单位MB,不配置时默认为200MB:

    • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:
      • commAlg为""或nullptr:依HCCL环境变量选择“fullmesh”或“hierarchy”公式。
      • commAlg为"fullmesh":设置大小要求 (≥ 2 * (Bs * epWorldSize * min(localExpertNum, K) * H * sizeof(uint16) + 2MB))。
      • commAlg为"hierarchy":设置大小要求 (≥ moeExpertNum * Bs * (H * sizeof(dtypeX) + 4 * ((K + 7) / 8 * 8) * sizeof(uint32)) + 4MB + 100MB),不要求 (moeExpertNum / (epWorldSize - sharedExpertRankNum) ≤ 24)。
    • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:
      • ep通信域内:设置大小要求 (≥ 2) 且满足 (≥ 2 * (localExpertNum * maxBs * epWorldSize * Align512(Align32(2 * H) + 64) + (K + sharedExpertNum) * maxBs * Align512(2 * H)))([object Object]需使用MoE专家卡的本卡专家数;[object Object][object Object])。
      • tp通信域内:设置大小要求>=A * (H * 2 + 128) * 2。
  8. HCCL_INTRA_PCIE_ENABLE和HCCL_INTRA_ROCE_ENABLE: [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:该环境变量不再推荐使用,建议通过[object Object]配置为"hierarchy"。

  9. 本文公式中的“/”表示整除。

  10. 通信域使用约束:

  • 一个模型中的CombineV2系列算子和[object Object]仅支持相同EP通信域,且该通信域中不允许有其他算子。
  • 一个模型中的CombineV2系列算子和[object Object]仅支持相同TP通信域或都不支持TP通信域;有TP通信域时,该通信域中不允许有其他算子。
  • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:一个通信域内的节点需在一个超节点内,不支持跨超节点。
  1. 组网约束:
  • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:多机场景仅支持交换机组网,不支持双机直连组网。

调用示例

  • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:

    • 文件准备:

      1. 按照下方指导创建rank_table_m2.json文件并修改。

      2. 将项目拷贝到两台服务器中,并根据机器的device ip配置rank_table_m2.json文件内容。注意两机rank_table_m2.json文件保持一致。

      3. 安装cann包,并根据编译运行。

    • 关于rankTable:

      1. 开发者可以通过ranktable文件配置参与集合通信的NPU资源信息,详细配置请参考中“通信功能开发>集群信息配置>ranktable文件配置资源信息”。

      2. 使用[object Object] 或者[object Object]查询机器的device ip。然后参考集合通信文档填写json文件。

      [object Object]
    • 环境变量配置:

      [object Object]
    • 机器数量设置: 两机16卡场景中,需将参数MACHINE_NUM设置为2,即

      [object Object]

      单机16卡场景则无需修改。

  • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:

    无需配置ranktable文件以及环境变量RANK_TABLE_FILE、FIRST_RANK_ID。

示例代码如下,仅供参考,具体编译和执行过程请参考

  • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]、[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:
    [object Object]