aclnnMatmulReduceScatterV2
产品支持情况
产品 | 是否支持 |
---|---|
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object] | × |
[object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object] | × |
[object Object]Atlas 200I/500 A2 推理产品[object Object] | × |
[object Object]Atlas 推理系列产品 [object Object] | × |
[object Object]Atlas 训练系列产品[object Object] | × |
功能说明
- 算子功能:
aclnnMatmulReduceScatterV2接口是对aclnnMatmulReduceScatter接口的功能扩展,在支持x1和x2输入类型为FLOAT16/BFLOAT16的基础上,新增了对低精度数据类型FLOAT8_E4M3FN/FLOAT8_E5M2/HIFLOAT8的支持。支持pertensor、perblockundefined。
功能可分为以下三种情形:
- 如果x1和x2数据类型为FLOAT16/BFLOAT16时,入参x1、x2进行matmul计算后,进行reducescatter通信。
- 如果x1和x2数据类型为FLOAT8_E4M3FN/FLOAT8_E5M2/HIFLOAT8的pertensor场景,且不输出amaxOut,入参x1、x2进行matmul计算和dequant计算后,进行reducescatter通信。
- 如果x1和x2数据类型为FLOAT8_E4M3FN/FLOAT8_E5M2/HIFLOAT8的perblock场景,且不输出amaxOut,当x1为(a0, a1)x2为(b0, b1)时x1Scale为(ceildiv(a0, 128), ceildiv(a1, 128))x2Scale为(ceildiv(b0, 128), ceildiv(b1, 128))时,入参x1、x2进行matmul计算和dequant计算后,再进行reducescatter通信。
- 计算公式:
- 情形1:
- 情形2:
- 情形3:
函数原型
每个算子分为两段式接口,必须先调用“aclnnMatmulReduceScatterV2GetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMatmulReduceScatterV2”接口执行计算。
aclnnStatus aclnnMatmulReduceScatterV2GetWorkspaceSize(const aclTensor* x1, const aclTensor* x2, const aclTensor* bias, const aclTensor* x1Scale, const aclTensor* x2Scale, const aclTensor* quantScale, int64_t blockSize, const char* group, const char* reduceOp, int64_t commTurn, int64_t streamMode, int64_t groupSize, aclTensor* output, aclTensor* amaxOutOptional, uint64_t* workspaceSize, aclOpExecutor** executor)
aclnnStatus aclnnMatmulReduceScatterV2(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)
aclnnMatmulReduceScatterV2GetWorkspaceSize
参数说明:
- x1(aclTensor*,计算输入):Device侧的两维aclTensor,mm左矩阵。数据类型支持FLOAT16、BFLOAT16、FLOAT8_E4M3FN、FLOAT8_E5M2、HIFLOAT8,shape为[m, k], 数据格式支持ND。当前版本仅支持两维输入,且仅支持不转置场景。
- x2(aclTensor*,计算输入):Device侧的两维aclTensor,mm左矩阵。数据类型支持FLOAT16、BFLOAT16、FLOAT8_E4M3FN、FLOAT8_E5M2、HIFLOAT8,shape为[k, n], 数据格式支持ND。支持通过转置构造的undefined。当前版本仅支持两维输入。
- bias(aclTensor*,计算输入):Device侧的一维aclTensor。数据类型支持FLOAT16、BFLOAT16、FLOAT。数据格式支持ND。如果x1的数据类型是FLOAT16、BFLOAT16,则bias的数据类型必须为FLOAT16、BFLOAT16,且当前版本仅支持为0的输入。如果x1的数据类型是FLOAT8_E4M3FN、FLOAT8_E5M2、HIFLOAT8时,在pertensor场景下,bias的数据类型必须为FLOAT,在perblock场景下,仅支持输入为nullptr。
- x1Scale(aclTensor*,计算输入):Device侧的一维aclTensor,mm左矩阵反量化参数。数据类型支持FLOAT。当x1和x2数据类型为FLOAT16/BFLOAT16时,仅支持输入为nullptr。在pertensor场景下,shape为[1]。在perblock场景下,shape为[ceildiv(m, 128), ceildiv(k, 128)]。数据格式支持ND。
- x2Scale(aclTensor*,计算输入):Device侧的一维aclTensor,mm右矩阵反量化参数。数据类型支持FLOAT。当x1和x2数据类型为FLOAT16/BFLOAT16时,仅支持输入为nullptr。在pertensor场景下,shape为[1]。在perblock场景下,shape为[ceildiv(k, 128), ceildiv(n, 128)]。数据格式支持ND。
- quantScale(aclTensor*,计算输入):Device侧的一维aclTensor,mm输出矩阵量化参数。数据类型支持FLOAT。当前版本仅支持nullptr。
- blockSize (int64_t,计算输入):Host侧的整型,用于表示mm输出矩阵在M轴方向上和N轴方向上可以用于对应方向上的多少个数的量化。blockSize由blockSizeM, blockSizeN,blockSizeK三个值拼接而成,每个值占16位,计算公式为:blockSize = blockSizeK | blockSizeN << 16 | blockSizeM << 32,mm输出矩阵不涉及K轴,blockSizeK固定为0。当前版本只支持blockSizeM = blockSizeN = 0。
- group(char*,计算输入):Host侧的char,标识列组的字符串。数据类型支持String。通过Hccl提供的接口“extern HcclResult HcclGetCommName(HcclComm comm, char* commName);”获取, 其中commName即为group。
- reduceOp(char*,计算输入):Host侧的char,reduce操作类型。数据类型支持String。当前版本仅支持“sum”。
- commTurn(int64_t,计算输入):Host侧的整型,通信数据切分数,即总数据量/单次通信量。数据类型支持INT64。当前版本仅支持输入0。
- streamMode(int64_t,计算输入):Host侧的整型,流模式的枚举,当前只支持枚举值1,数据类型支持INT64。
- groupSize(int64_t,计算输入):用于表示反量化中x1Scale/x2Scale输入的一个数在其所在的对应维度方向上可以用于该方向x1/x2输入的多少个数的反量化。groupSize输入由3个方向的groupSizeM,groupSizeN,groupSizeK三个值拼接组成,每个值占16位,计算公式为:groupSize = groupSizeK | groupSizeN << 16 | groupSizeM << 32。当x1Scale/x2Scale输入都是2维,且数据类型都为FLOAT32时,[groupSizeM,groupSizeN,groupSizeK]取值组合仅支持[128, 128, 128],对应groupSize的值为549764202624;其他场景输入,当前版本仅支持输入0。
- output(aclTensor*,计算输出):Device侧的aclTensor,mm计算+reducescatter通信的结果。数据类型支持FLOAT16、BFLOAT16、FLOAT,数据格式支持ND。如果x1数据类型为FLOAT16、BFLOAT16时,output数据类型与x1一致。
- amaxOutOptional(aclTensor*,计算输出):Device侧的一维aclTensor,mm计算的最大值结果。当前版本仅支持nullptr。
- workspaceSize(uint64_t*,出参):Device侧的整型,返回需要在Device侧申请的workspace大小。
- executor(aclOpExecutor**,出参):Device侧的aclOpExecutor,返回op执行器,包含了算子计算流程。
返回值:
返回aclnnStatus状态码,具体参见undefined。
[object Object]
aclnnMatmulReduceScatterV2
参数说明:
- workspace(void*,入参):在Device侧申请的workspace内存地址。
- workspaceSize(uint64_t,入参):在Device侧申请的workspace大小,由第一段接口aclnnMatmulReduceScatterV2GetWorkspaceSize获取。
- executor(aclOpExecutor*,入参):op执行器,包含了算子计算流程。
- stream(aclrtStream,入参):指定执行任务的Stream。
返回值:
返回aclnnStatus状态码,具体参见undefined。
约束说明
- 只支持x2矩阵转置/不转置,x1矩阵仅支持不转置场景。
- 输入x1为2维,其shape为(m, k),m须为卡数rank_size的整数倍。
- 输入x2必须是2维,其shape为(k, n),轴满足mm算子入参要求,k轴相等,且k轴取值范围为[256, 65535)。
- bias为1维,shape为(n,)。
- 输出为2维,其shape为(m/rank_size, n), rank_size为卡数。
- 当x1、x2的数据类型为FLOAT16/BFLOAT16时,x1/x2支持的空tensor场景,m和n可以为空,k不可为空,且需满足以下条件:
- m为空,k不为空,n不为空;
- m不为空,k不为空,n为空;
- m为空,k不为空,n为空。
- 当x1、x2的数据类型为FLOAT8_E4M3FN/FLOAT8_E5M2/HIFLOAT8时,不支持空tensor。
- 当x1、x2的数据类型为FLOAT16/BFLOAT16/HIFLOAT8时,x1和x2的数据类型需要保持一致。
- 当x1、x2的数据类型为FLOAT8_E4M3FN/FLOAT8_E5M2时,x1和x2的数据可以为其中一种。
调用示例
示例代码如下,仅供参考,具体编译和执行过程请参考undefined。
[object Object]