aclnnMoeDistributeDispatch
产品支持情况
产品 | 是否支持 |
---|---|
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object] | √ |
[object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object] | √ |
[object Object]Atlas 200I/500 A2 推理产品[object Object] | × |
[object Object]Atlas 推理系列产品 [object Object] | × |
[object Object]Atlas 训练系列产品[object Object] | × |
功能说明
算子功能:对Token数据进行量化(可选),当存在TP域通信时,先进行EP(Expert Parallelism)域的AllToAllV通信,再进行TP(Tensor Parallelism)域的AllGatherV通信;当不存在TP域通信时,进行EP(Expert Parallelism)域的AllToAllV通信。
注意该接口必须与aclnnMoeDistributeCombine配套使用。
函数原型
每个算子分为undefined,必须先调用 “aclnnMoeDistributeDispatchGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMoeDistributeDispatch”接口执行计算。
aclnnStatus aclnnMoeDistributeDispatchGetWorkspaceSize(const aclTensor* x, const aclTensor* expertIds, const aclTensor* scales, const aclTensor* xActiveMask, const aclTensor* expertScales, const char* groupEp, int64_t epWorldSize, int64_t epRankId, int64_t moeExpertNum, const char* groupTp, int64_t tpWorldSize, int64_t tpRankId, int64_t expertShardType, int64_t sharedExpertNum, int64_t sharedExpertRankNum, int64_t quantMode, int64_t globalBs, int64_t expertTokenNumsType, aclTensor* expandX, aclTensor* dynamicScales, aclTensor* expandIdx, aclTensor* expertTokenNums, aclTensor* epRecvCounts, aclTensor* tpRecvCounts, aclTensor* expandScales, uint64_t* workspaceSize, aclOpExecutor** executor)
aclnnStatus aclnnMoeDistributeDispatch(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)
aclnnMoeDistributeDispatchGetWorkspaceSize
参数说明:
- x(aclTensor*,计算输入):表示本卡发送的token数据,Device侧的aclTensor。要求为一个2D的Tensor,shape为 (BS, H),其中BS为batch size,H为hidden size,即隐藏层大小。undefined要求为ND,支持undefined。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]、[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:数据类型支持FLOAT16、BFLOAT16。
- expertIds(aclTensor*,计算输入):每个token的topK个专家索引,Device侧的aclTensor,要求为一个2D的Tensor,shape为 (BS, K),数据类型支持INT32,undefined要求为ND,支持undefined。
- scales(aclTensor*,计算输入):每个专家的平滑系数或者融合了每个专家的量化平滑系数的量化系数或者量化系数,Device侧的aclTensor,要求是一个1D的Tensor或者2D的Tensor,undefined要求为ND,支持undefined。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:当HCCL_INTRA_PCIE_ENABLE为1且HCCL_INTRA_ROCE_ENABLE为0时,要求传nullptr。
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:数据类型支持FLOAT32。quantMode取值为0时传空指针。quantMode取值为2时,可以选择传入有效数据或者传空指针,传入有效数据时,其shape为 (H, )、(sharedExpertNum + moeExpertNum, H),(moeExpertNum, H)。
- xActiveMask(aclTensor*,计算输入):Device侧的aclTensor,预留参数。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]、[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:当前版本不支持,传空指针即可。
- expertScales(aclTensor*,计算输入):每个Token的topK个专家权重,Device侧的aclTensor。
- groupEp(char*,计算输入):EP通信域名称,专家并行的通信域,string数据类型。字符串长度范围为[1, 128),不能和groupTp相同。
- epWorldSize(int64_t,计算输入):EP通信域size,数据类型支持INT64。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:取值支持16、32、64。
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:取值支持8、16、32、64、128、144、256、288。
- epRankId(int64_t,计算输入): EP域本卡Id,数据类型支持INT64,取值范围[0, epWorldSize)。同一个EP通信域中各卡的epRankId不重复。
- moeExpertNum(int64_t,计算输入): MoE专家数量,数据类型支持INT64,取值范围(0, 512],并满足moeExpertNum % (epWorldSize - sharedExpertRankNum) = 0。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:还需满足moeExpertNum / (epWorldSize - sharedExpertRankNum) <= 24。
- groupTp(char*,计算输入):TP通信域名称,数据并行的通信域,string数据类型。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:当前版本不支持,传空字符即可。
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:字符串长度范围为[1, 128),不能和groupEp相同。
- tpWorldSize(int64_t,计算输入):TP通信域size,int数据类型。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:当前版本不支持,传0即可。
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:取值范围[0, 2],0和1表示无tp域通信,有tp域通信时仅支持2。
- tpRankId(int64_t,计算输入):TP域本卡Id,数据类型支持INT64。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:当前版本不支持,传0即可。
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:取值范围[0, 1],同一个TP通信域中各卡的tpRankId不重复。无TP域通信时,传0即可。
- expertShardType(int64_t,计算输入):表示共享专家卡分布类型,数据类型支持INT64。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:当前版本不支持,传0即可。
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:当前仅支持传0,表示共享专家卡排在MoE专家卡前面。
- sharedExpertNum(int64_t,计算输入):表示共享专家数量,一个共享专家可以复制部署到多个卡上,数据类型支持INT64。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:当前版本不支持,传0即可。
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:当前取值范围[0, 1]。0表示无共享专家,1表示一个共享专家,当前版本仅支持传1。
- sharedExpertRankNum(int64_t,计算输入):表示共享专家卡数量,数据类型支持INT64。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:当前版本不支持,传0即可。
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:当前取值范围[0, epWorldSize),不为0时需满足epWorldSize % sharedExpertRankNum = 0。
- quantMode(int64_t,计算输入):表示量化模式,支持0:非量化,1:静态量化,2:pertoken动态量化,3:pergroup动态量化,4:mx量化。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]、[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:支持quantMode取值为0或2。
- globalBs(int64_t,计算输入):EP域全局的batch size大小,数据类型支持INT64。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:当每个rank的Bs数一致时,globalBs = Bs * epWorldSize 或 globalBs = 0;当每个rank的Bs数不一致时,globalBs = maxBs * epWorldSize或者globalBs = 256 * epWorldSize,其中maxBs表示表示单rank BS最大值,建议按maxBs * epWorldSize传入,固定按256 * epWorldSize传入在后续版本bs支持大于256的场景下会无法支持。
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:当每个rank的Bs数一致时,globalBs = Bs * epWorldSize 或 globalBs = 0;当每个rank的Bs数不一致场景下,globalBs = maxBs * epWorldSize,其中maxBs表示单卡Bs最大值。
- expertTokenNumsType(int64_t,计算输入):输出expertTokenNums中值的语义类型。支持0:expertTokenNums中的输出为每个专家处理的token数的前缀和,1:expertTokenNums中的输出为每个专家处理的token数量。
- expandX(aclTensor*,计算输出):根据expertIds进行扩展过的token特征,Device侧的aclTensor,要求为一个2D的Tensor,shape为 (max(tpWorldSize, 1) * A, H)。
- dynamicScales(aclTensor*,计算输出):数据类型FLOAT32,要求为一个1D的Tensor或者2D的Tensor,undefined要求为ND,支持undefined。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]、[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:数据类型支持FLOAT32,其shape为 (A, ),当quantMode为2时,才有该输出。
- expandIdx(aclTensor*,计算输出):表示给同一专家发送的token个数,对应aclnnMoeDistributeCombine中的expandIdx,Device侧的aclTensor,要求是一个1D的shape (BS*K, )。数据类型支持INT32,undefined要求为ND,支持undefined。
- expertTokenNums(aclTensor*,计算输出):表示每个专家收到的token个数,Device侧的aclTensor,数据类型INT64,要求为一个1D的Tensor,shape为 (localExpertNum, ),undefined要求为ND,支持undefined。
- epRecvCounts(aclTensor*,计算输出):从EP通信域各卡接收的token数,对应aclnnMoeDistributeCombine中的epSendCounts,Device侧的aclTensor,数据类型INT32,要求为一个1D的Tensor,undefined要求为ND,支持undefined。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:要求shape为 (moeExpertNum + 2 * globalBs * K * serverNum, ),前moeExpertNum个数表示从EP通信域各卡接收的token数,2 * globalBs * K * serverNum存储了机间机内做通信前combine可以提前做reduce的token个数和token在通信区中的偏移,globalBs传入0时在此处应当按照Bs * epWorldSize计算。
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:要求shape为 (epWorldSize * max(tpWorldSize, 1) * localExpertNum, )。
- tpRecvCounts(aclTensor*,计算输出):从TP通信域各卡接收的token数,对应aclnnMoeDistributeCombine中的tpSendCounts,Device侧的aclTensor。若有TP域通信则有该输出,若无TP域通信则无该输出。
- expandScales(aclTensor*,计算输出):表示本卡输出Token的权重,对应aclnnMoeDistributeCombine中的expandScales,Device侧的aclTensor。
- workspaceSize(uint64_t*,出参):返回需要在Device侧申请的workspace大小。
- executor(aclOpExecutor**,出参):返回op执行器,包含了算子计算流程。
- x(aclTensor*,计算输入):表示本卡发送的token数据,Device侧的aclTensor。要求为一个2D的Tensor,shape为 (BS, H),其中BS为batch size,H为hidden size,即隐藏层大小。undefined要求为ND,支持undefined。
返回值
返回aclnnStatus状态码,具体参见undefined。
[object Object]
aclnnMoeDistributeDispatch
参数说明:
- workspace(void*,入参):在Device侧申请的workspace内存地址。
- workspaceSize(uint64_t,入参):在Device侧申请的workspace大小,由第一段接口aclnnMoeDistributeDispatchGetWorkspaceSize获取。
- executor(aclOpExecutor*,入参):op执行器,包含了算子计算流程。
- stream(aclrtStream,入参):指定执行任务的Stream。
返回值:
返回aclnnStatus状态码,具体参见undefined。
约束说明
aclnnMoeDistributeDispatch接口与aclnnMoeDistributeCombine接口必须配套使用,具体参考undefined。
在不同产品型号、不同通信算法或不同版本中,aclnnMoeDistributeDispatch的Tensor输出expandIdx、epRecvCounts、tpRecvCounts、expandScales中的的元素值可能不同,使用时直接将上述Tensor传给aclnnMoeDistributeCombine对应参数即可,模型其他业务逻辑不应对其存在依赖。
调用接口过程中使用的groupEp、epWorldSize、moeExpertNum、groupTp、tpWorldSize、expertShardType、sharedExpertNum、sharedExpertRankNum、globalBs参数取值所有卡需保持一致,网络中不同层中也需保持一致,且和aclnnMoeDistributeCombine对应参数也保持一致。
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:该场景下单卡包含双DIE(简称为“晶粒”或“裸片”),因此参数说明里的“本卡”均表示单DIE。
参数说明里shape格式说明:
- A:表示本卡可能接收的最大token数量,取值范围如下:
- 对于共享专家,要满足A = BS * epWorldSize * sharedExpertNum / sharedExpertRankNum。
- 对于MoE专家,当globalBs为0时,要满足A >= BS * epWorldSize * min(localExpertNum, K);当globalBs非0时,要满足A >= globalBs * min(localExpertNum, K)。
- H:表示hidden size隐藏层大小。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:取值范围(0, 7168],且保证是32的整数倍。
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:取值为7168。
- BS:表示batch sequence size,即本卡最终输出的token数量。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:取值范围为0 < BS ≤ 256。
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:取值范围为0 < BS ≤ 512。
- K:表示选取topK个专家,需满足0 < K ≤ moeExpertNum。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:取值范围为0 < K ≤ 16。
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:取值范围为0 < K ≤ 8。
- serverNum:表示服务器的节点数,取值只支持2、4、8。
- localExpertNum:表示本卡专家数量。
- 对于共享专家卡,localExpertNum = 1
- 对于MoE专家卡,localExpertNum = moeExpertNum / (epWorldSize - sharedExpertRankNum),localExpertNum > 1时,不支持TP域通信。
- A:表示本卡可能接收的最大token数量,取值范围如下:
HCCL_BUFFSIZE: 调用本接口前需检查HCCL_BUFFSIZE环境变量取值是否合理,该环境变量表示单个通信域占用内存大小,单位MB,不配置时默认为200MB。
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:要求 >= 2 * (BS * epWorldSize * min(localExpertNum, K) * H * sizeof(uint16) + 2MB)。
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:要求 >= 2且满足1024 ^ 2 * (HCCL_BUFFSIZE - 2) / 2 >= BS * 2 * (H + 128) * (epWorldSize * localExpertNum + K + 1),localExpertNum需使用MoE专家卡的本卡专家数。
HCCL_INTRA_PCIE_ENABLE和HCCL_INTRA_ROCE_ENABLE:
- [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:设置环境变量HCCL_INTRA_PCIE_ENABLE = 1和HCCL_INTRA_ROCE_ENABLE = 0可以减少跨机通信数据量,可能提升算子性能。 此时,HCCL_BUFFSIZE要求 >= moeExpertNum * BS * (H * sizeof(dtypeX) + 4 * ((K + 7) / 8 * 8) * sizeof(uint32)) + 4MB + 100MB。并且,对于入参moeExpertNum,只要求moeExpertNum % (epWorldSize - sharedExpertRankNum) = 0,不要求moeExpertNum / (epWorldSize - sharedExpertRankNum) <= 24。
本文公式中的"/"表示整除。
通信域使用约束:
- 一个模型中的aclnnMoeDistributeCombine和aclnnMoeDistributeDispatch仅支持相同EP通信域,且该通信域中不允许有其他算子。
- 一个模型中的aclnnMoeDistributeCombine和aclnnMoeDistributeDispatch仅支持相同TP通信域或都不支持TP通信域,有TP通信域时该通信域中不允许有其他算子。
quantMode相关约束:
- quantMode取值为0时,表示非量化场景,expandX的数据类型支持FLOAT16、BFLOAT16、FLOAT8_E4M3FN、FLOAT8_E5M2、HIFLOAT8。
- expandX的数据类型为FLOAT16、BFLOAT16时,输入scales必须传入空指针。
- expandX的数据类型为FLOAT8_E4M3FN、FLOAT8_E5M2、HIFLOAT8时,输入scales必须传入有效数据,且输入scales的shape第1维必须等于BS。
- quantMode取值为1时,表示静态量化场景,expandX的数据类型支持INT8、HIFLOAT8。
- expandX的数据类型为INT8时,输入scales为量化系数时,shape为 (1, );输入scales为每个专家共享的平滑权重时,shape为 (H,)。输入scales为融了每个专家的平滑权重的量化系数时,若有共享专家卡,其shape为 (sharedExpertNum + moeExpertNum, H),若无共享专家卡,其shape为 (moeExpertNum, H)。
- expandX的数据类型为HIFLOAT8时,scales的shape必须为 (1, )。
- quantMode取值为2时,表示pertoken动态量化场景,expandX的数据类型支持INT8、FLOAT8_E4M3FN、FLOAT8_E5M2。
- 输入scales可传入空指针。
- 若输入scales传入有效数据且存在共享专家卡时,其shape为 (sharedExpertNum + moeExpertNum, H)。
- 若输入scales传入有效数据且不存在共享专家卡时,其shape为 (moeExpertNum, H)。
- quantMode取值为3时,表示pergroup动态量化场景,expandX的数据类型支持FLOAT8_E4M3FN、FLOAT8_E5M2。
- 输入scales可传入空指针。
- 若输入scales传入有效数据且存在共享专家卡时,其shape为 (sharedExpertNum + moeExpertNum, H)。
- 若输入scales传入有效数据且不存在共享专家卡时,其shape为 (moeExpertNum, H)。
- quantMode取值为4时,表示mx量化场景,expandX的数据类型支持FLOAT8_E4M3FN、FLOAT8_E5M2,输入scales必须传入空指针。
- quantMode取值为0时,表示非量化场景,expandX的数据类型支持FLOAT16、BFLOAT16、FLOAT8_E4M3FN、FLOAT8_E5M2、HIFLOAT8。
调用示例
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:示例代码请参考undefined调用过程,仅供参考,请根据实际情况配置;
[object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:示例代码如下,调起combine和dispatch算子,仅供参考,请根据实际情况配置。
文件准备:
1.新建combineDemo目录,按照下方指导在combineDemo下新建aclnnCombineDemo.cpp,buildCombine.sh,rank_table_m2.json文件并修改。 2.将combineDemo项目拷贝到两台服务器中,并根据机器的device ip配置rank_table_m2.json文件内容。注意两机rank_table_m2.json文件保持一致。 3.安装cann包,并根据下方指导编译运行combineDemo。关于rankTable: 开发者可以通过ranktable文件配置参与集合通信的NPU资源信息,详细配置请参考undefined中“通信功能开发>集群信息配置>ranktable文件配置资源信息”。
使用
cat /etc/hccn.conf
或者for i in seq 0 7; do echo "===================> dev$i, NPU$((i+1))"; hccn_tool -i $i -ip -g; done
查询机器的device ip。然后参考集合通信文档填写json文件。注意:device_id范围是[0, 8),且可自由选择几张卡; rank_id依次增加。以两机16卡为例,两机器的device ip都是0
7,其中一机器rank_id为07,则另一台机器的rank_id为8~15。编译脚本
[object Object]编译与运行:
[object Object]示例代码如下,仅供参考