接口功能:对token数据进行量化(可选),当存在TP域通信时,先进行EP(Expert Parallelism)域的AllToAllV通信,再进行TP(Tensor Parallelism)域的AllGatherV通信;当不存在TP域通信时,进行EP(Expert Parallelism)域的AllToAllV通信。
相较于
[object Object]接口,该接口变更如下:新增支持特殊专家场景
zeroExpertNum≠0:通过传入大于0的zeroExpertNum参数使能本特性。
copyExpertNum≠0:通过传入大于0的copyExpertNum参数使能本特性,同时还需传入有效的oriXOptional参数。
constExpertNum≠0:通过传入大于0的constExpertNum参数使能本特性,同时还需传入有效的oriXOptional、constExpertAlpha1Optional、constExpertAlpha2Optional、constExpertVOptional参数。
详细说明请参考以下参数说明。 参数oriXOptional、constExpertAlpha1Optional、constExpertAlpha2Optional、constExpertVOptional见aclnnMoeDistributeCombineV3.md文档。
计算公式:
- 情形1:如果不存在tp域通信。
- 情形2:如果存在tp域通信。
[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:该接口必须与
[object Object]配套使用。[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:该接口必须与
[object Object]或[object Object]配套使用。
[object Object]
每个算子分为两段式接口,必须先调用 “aclnnMoeDistributeDispatchV3GetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMoeDistributeDispatchV3”接口执行计算。
参数说明
[object Object][object Object]- commAlg 支持nullptr、""、"fullmesh"、"hierarchy";推荐配置"hierarchy"并搭配≥25.0.RC1.1版本驱动;nullptr和""依HCCL环境变量选择算法(不推荐);"fullmesh"通过RDMA直传token;"hierarchy"经跨机、机内两次发送优化通信。
- commAlg为"hierarchy"或HCCL_INTRA_PCIE_ENABLE=1且HCCL_INTRA_ROCE_ENABLE=0时,scalesOptional 需传nullptr。
- xActiveMaskOptional 依commAlg取值,"fullmesh"要求为1D Tensor,shape为(Bs, );true需排在false前(例:{true, false, true}非法);"hierarchy"当前版本不支持,传空指针即可。
- expertScalesOptional 要求为2D Tensor,shape为(Bs, K)。
- epWorldSize 依commAlg取值,"fullmesh"支持2、3、4、5、6、7、8、16、32、64、128、192、256、384;"hierarchy"支持16、32、64。
- moeExpertNum 取值范围(0, 512]。
- groupTp 当前版本不支持,传空字符即可。
- tpWorldSize、tpRankId、expertShardType、sharedExpertNum、sharedExpertRankNum 当前版本不支持,传0即可。
- epRecvCountsOut 的shape为(moeExpertNum + 2 * globalBs * K * serverNum,)(前moeExpertNum个为接收token数,剩余为通信前reduce相关信息)。
- 当前不支持TP域通信。
- expandScalesOut 要求为1D Tensor,shape为(A,)。
- quantMode 支持0(非量化)、2(动态量化)。
- elasticInfoOptional 当前版本不支持,传空指针即可。
- zeroExpertNum 当commAlg="fullmesh"时,取值范围:[0, MAX_INT32),MAX_INT32 = 2^31 - 1, 合法的零专家的ID的值是[[object Object]moeExpertNum[object Object], [object Object]moeExpertNum + zeroExpertNum[object Object])。
- copyExpertNum 当commAlg="fullmesh"时,取值范围:[0, MAX_INT32),MAX_INT32 = 2^31 - 1, 合法的拷贝专家的ID的值是[[object Object]moeExpertNum + zeroExpertNum[object Object], [object Object]moeExpertNum + zeroExpertNum + copyExpertNum[object Object])。
- constExpertNum 当前版本不支持,传0即可。[object Object]
- commAlg 支持""、"fullmesh_v1"、"fullmesh_v2"三种输入方式。"":默认值,使能fullmesh_v1模板;"fullmesh_v1":使能fullmesh_v1模板;"fullmesh_v2":使能fullmesh_v2模板,其中commAlg仅支持tpWorldSize为1场景。
- xActiveMaskOptional 要求为1D或2D Tensor(1D时shape为(Bs, ),2D时shape为(Bs, K));1D时true需排在false前,2D时token对应K个值全为false则不参与通信。
- expertScalesOptional 当前版本不支持,传空指针即可。
- epWorldSize 取值范围[2, 768]。
- moeExpertNum 取值范围(0, 1024]。
- groupTp 字符串长度范围为[0, 128),不能和groupEp相同,仅在无tp域通信时支持传空。
- tpWorldSize 取值范围[0, 2],0和1表示无TP域通信,有TP域通信时仅支持2。
- tpRankId 取值范围[0, 1],同一个TP通信域中各卡的tpRankId不重复;无TP域通信时传0即可。
- expertShardType 当前仅支持传0,表示共享专家卡排在MoE专家卡前面。
- sharedExpertNum 当前取值范围[0, 4]。
- sharedExpertRankNum 取值范围[0, epWorldSize);为0时需满足sharedExpertNum为0或1,不为0时需满足sharedExpertRankNum % sharedExpertNum = 0。
- epRecvCountsOut 的shape为(epWorldSize * max(tpWorldSize, 1) * localExpertNum,)。
- 有TP域通信时tpRecvCountsOut为1D shape Tensor,shape为(tpWorldSize,)。
- expandScalesOut 当前版本不支持该输出。
- quantMode 支持0(非量化)、2(动态量化)。
- elasticInfoOptional 当前版本不支持,传空指针即可。
- zeroExpertNum 取值范围:[0, MAX_INT32),MAX_INT32 = 2^31 - 1, 合法的零专家的ID的值是[object Object][moeExpertNum, moeExpertNum + zeroExpertNum)[object Object]。
- copyExpertNum 取值范围:[0, MAX_INT32),MAX_INT32 = 2^31 - 1,专家ID范围[object Object][moeExpertNum + zeroExpertNum, moeExpertNum + zeroExpertNum + copyExpertNum)[object Object]。
- constExpertNum 取值范围:[0, MAX_INT32),MAX_INT32 = 2^31 - 1,专家ID范围[object Object][moeExpertNum + zeroExpertNum + copyExpertNum, moeExpertNum + zeroExpertNum + copyExpertNum + constExpertNum)[object Object]。[object Object]
- commAlg 支持""、"fullmesh_v1"、"fullmesh_v2"三种输入方式。"":默认值,使能fullmesh_v1模板;"fullmesh_v1":使能fullmesh_v1模板;"fullmesh_v2":使能fullmesh_v2模板,其中commAlg仅支持tpWorldSize为1场景。
- xActiveMaskOptional 要求为1D或2D Tensor(1D时shape为(Bs, ),2D时shape为(Bs, K));1D时true需排在false前,2D时token对应K个值全为false则不参与通信。
- expertScalesOptional 当前版本不支持,传空指针即可。
- epWorldSize 取值范围[2, 768]。
- moeExpertNum 取值范围(0, 1024]。
- groupTp 当前版本不支持,传空字符即可。
- tpWorldSize 当前版本不支持,传0即可。
- tpRankId 当前版本不支持,传0即可。
- expertShardType 当前仅支持传0,表示共享专家卡排在MoE专家卡前面。
- sharedExpertNum 当前取值范围[0, 4]。
- sharedExpertRankNum 取值范围[0, epWorldSize);为0时需满足sharedExpertNum为0或1,不为0时需满足sharedExpertRankNum % sharedExpertNum = 0。
- epRecvCountsOut 的shape为(epWorldSize * max(tpWorldSize, 1) * localExpertNum,)。
- 有TP域通信时tpRecvCountsOut为1D shape Tensor,shape为(tpWorldSize,)。
- expandScalesOut 当前版本不支持该输出。
- quantMode 支持0(非量化)、1(静态量化)、2(pertoken动态量化)、3(pergroup动态量化)、4(mxfp8动态量化)。
- elasticInfoOptional 当前版本不支持,传空指针即可。
- zeroExpertNum 取值范围:[0, MAX_INT32),MAX_INT32 = 2^31 - 1, 合法的零专家的ID的值是[object Object][moeExpertNum, moeExpertNum + zeroExpertNum)[object Object]。
- copyExpertNum 取值范围:[0, MAX_INT32),MAX_INT32 = 2^31 - 1,专家ID范围[object Object][moeExpertNum + zeroExpertNum, moeExpertNum + zeroExpertNum + copyExpertNum)[object Object]。
- constExpertNum 取值范围:[0, MAX_INT32),MAX_INT32 = 2^31 - 1,专家ID范围[object Object][moeExpertNum + zeroExpertNum + copyExpertNum, moeExpertNum + zeroExpertNum + copyExpertNum + constExpertNum)[object Object]。[object Object]
返回值
第一段接口完成入参校验,出现以下场景时报错:
[object Object]
确定性计算:
- aclnnMoeDistributeDispatchV3默认确定性实现。
接口配套约束:
[object Object]与CombineV3系列算子必须配套使用,前者输出的[object Object]、[object Object]、[object Object]、[object Object]需直接传入后者对应参数,业务逻辑不可依赖这些Tensor的具体值。
参数一致性约束:
- 所有卡的
[object Object]、[object Object]、[object Object]、[object Object]、[object Object]、[object Object]、[object Object]、[object Object]、[object Object]、[object Object]参数及[object Object]取值需保持一致,且与CombineV3系列算子对应参数一致。
- 所有卡的
产品特定约束:
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:该场景下单卡包含双DIE(简称为“晶粒”或“裸片”),因此参数说明中的“本卡”均表示单DIE。
Shape变量约束:
[object Object]undefined
环境变量约束:
HCCL_BUFFSIZE:
调用本接口前需检查HCCL_BUFFSIZE环境变量取值是否合理,该环境变量表示单个通信域占用内存大小,单位MB,不配置时默认为200MB。
- [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:
- commAlg配置为""或nullptr:依照HCCL_INTRA_PCIE_ENABLE和HCCL_INTRA_ROCE_ENABLE环境变量配置,选择"fullmesh"或"hierarchy"公式。
- commAlg配置为"fullmesh": 设置大小要求 >= 2 * (Bs * epWorldSize * min(localExpertNum, K) * H * sizeof(uint16) + 2MB)。
- commAlg配置为"hierarchy": 设置大小要求 >= (
[object Object]+[object Object]/ 4) * Align512([object Object]* ([object Object]* 2 + 16 * Align8([object Object]))) * 1B + 8MB,其中Align8(x) = ((x + 8 - 1) / 8) * 8,Align512(x) = ((x + 512 - 1) / 512) * 512。
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]、Atlas 350 加速卡:
- ep通信域内,当commAlg为"fullmesh_v1"或空字符串或空指针时:设置大小要求取值满足 ≥ 2 * (localExpertNum * maxBs * epWorldSize * Align512(Align32(2 * H) + 64) + (K + sharedExpertNum) * maxBs * Align512(2 * H))。
- ep通信域内,当commAlg为"fullmesh_v2"时:设置大小要求取值满足 ≥ 2 * (localExpertNum * maxBs * epWorldSize * 480Align512(Align32(2 * H) + 64) + (K + sharedExpertNum) * maxBs * Align512(2 * H))。
- tp通信域内:设置大小要求 >= (A * Align512(Align32(h * 2) + 44) + A * Align512(h * 2)) * 2。
- 其中
[object Object],[object Object],[object Object]。
- [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:
HCCL_INTRA_PCIE_ENABLE和HCCL_INTRA_ROCE_ENABLE:
- [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:该环境变量不再推荐使用,建议commAlg配置"hierarchy"。
通信域使用约束:
- 一个模型中的CombineV3系列算子和
[object Object]仅支持相同EP通信域,且该通信域中不允许有其他算子。 - 一个模型中的CombineV3系列算子和
[object Object]仅支持相同TP通信域或都不支持TP通信域,有TP通信域时该通信域中不允许有其他算子。 - [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:一个通信域内的节点需在一个超节点内,不支持跨超节点。
- 一个模型中的CombineV3系列算子和
组网约束:
- [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:多机场景仅支持交换机组网,不支持双机直连组网。
其他约束:
- 公式中的“/”表示整除。
- [object Object]moeExpertNum + zeroExpertNum + copyExpertNum + constExpertNum < MAX_INT32[object Object]。