aclnnMoeDistributeCombineAddRmsNormV2
产品支持情况
功能说明
接口功能:当存在TP域通信时,先进行ReduceScatterV通信,再进行AllToAllV通信,最后将接收的数据整合(乘权重再相加);当不存在TP域通信时,进行AllToAllV通信,最后将接收的数据整合(乘权重再相加),之后完成Add + RmsNorm融合。算子支持动态缩容场景,支持在创建通信域后,出现故障卡,将故障卡从通信域剔除,算子可以正常执行,无需重新编译;支持特殊专家场景。
相较于
[object Object]接口,该接口变更如下:新增支持动态缩容场景:支持在创建通信域后,剔除故障卡,算子可正常执行(无需重新编译),通过传入
[object Object]参数使能该特性。新增支持特殊专家场景:
zeroExpert ≠ 0:通过传入大于0的
[object Object]参数使能。copyExpert ≠ 0:通过传入大于0的
[object Object]参数使能,且需传入有效的[object Object]参数。constExpert ≠ 0:通过传入大于0的
[object Object]参数使能,且需传入有效的[object Object]、[object Object]、[object Object]、[object Object]参数。
计算公式:
[object Object]
函数原型
每个算子分为,必须先调用 “aclnnMoeDistributeCombineAddRmsNormV2GetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMoeDistributeCombineAddRmsNormV2”接口执行计算。
aclnnMoeDistributeCombineAddRmsNormV2GetWorkspaceSize
aclnnMoeDistributeCombineAddRmsNormV2
约束说明
确定性计算:
- aclnnMoeDistributeCombineAddRmsNormV2默认确定性实现。
aclnnMoeDistributeDispatchV3接口与aclnnMoeDistributeCombineAddRmsNormV2接口必须配套使用,具体参考。
调用接口过程中使用的expertIds、xActiveMaskOptional、elasticInfoOptional、groupEp、epWorldSize、moeExpertNum、groupTp、tpWorldSize、expertShardType、sharedExpertNum、sharedExpertRankNum、globalBs、commAlg、zeroExpertNum、copyExpertNum、constExpertNum参数、HCCL_BUFFSIZE取值所有卡需保持一致,网络中不同层中也需保持一致,且和DispatchV3对应参数也保持一致。
动态缩容后的部署信息通过elasticInfoOptional参数传递给算子,无需修改其他参数。动态缩容后,MOE专家卡上的本卡部署MOE专家数需与缩容前保持一致。
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:该场景下单卡包含双DIE(简称为“晶粒”或“裸片”),因此参数说明里的“本卡”均表示单DIE。
moeExpertNum + zeroExpertNum + copyExpertNum + constExpertNum < MAX_INT32,其中MAX_INT32值为2147483647。
动态缩容功能不支持在TP并行场景下使能。
参数说明里shape格式说明:
A:表示本卡需要分发的最大token数量,取值范围如下:
- 当globalBs为0时,要满足A >= BS * epWorldSize * min(localExpertNum, K);
- 当globalBs非0时,要满足A >= globalBs * min(localExpertNum, K)。
H:表示hidden size隐藏层大小,取值范围为[1024, 8192]。
Bs:表示batch sequence size,即本卡最终输出的token数量,取值范围为0 < Bs ≤ 512。
K:表示选取topK个专家,取值范围为0 < K ≤ 16同时满足0 < K ≤ moeExpertNum + zeroExpertNum + copyExpertNum + constExpertNum。
localExpertNum:表示本卡专家数量。
- 对于共享专家卡,localExpertNum = 1
- 对于MoE专家卡,localExpertNum = moeExpertNum / (epWorldSize - sharedExpertRankNum),localExpertNum > 1时,不支持TP域通信。
HCCL_BUFFSIZE: 调用本接口前需检查HCCL_BUFFSIZE环境变量取值是否合理,该环境变量表示单个通信域占用内存大小,单位MB,不配置时默认为200MB。
- ep通信域内:设置大小要求 >= 2且满足1024 ^ 2 * (HCCL_BUFFSIZE - 2) / 2 >= BS * 2 * (H + 128) * (epWorldSize * localExpertNum + K + 1),localExpertNum表示MoE专家卡的本卡专家数。
- tp通信域内:设置大小要求 >= (A * Align512(Align32(h * 2) + 44) + A * Align512(h * 2)) * 2。
通信域使用约束:
- 一个模型中的aclnnMoeDistributeCombineAddRmsNormV2和aclnnMoeDistributeDispatchV3仅支持相同EP通信域,且该通信域中不允许有其他算子。
- 一个模型中的aclnnMoeDistributeCombineAddRmsNormV2和aclnnMoeDistributeDispatchV3仅支持相同TP通信域或都不支持TP通信域,有TP通信域时该通信域中不允许有其他算子。
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:一个通信域内的节点需在一个超节点内,不支持跨超节点。
调用示例
以[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]为例,调用aclnnMoeDistributeDispatchV3和aclnnMoeDistributeCombineAddRmsNormV2接口
- 示例代码如下,仅供参考[object Object]