昇腾社区首页
中文
注册

aclnnMatmulReduceScatterV2

产品支持情况

产品 是否支持
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object] ×
[object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object] ×
[object Object]Atlas 200I/500 A2 推理产品[object Object] ×
[object Object]Atlas 推理系列产品 [object Object] ×
[object Object]Atlas 训练系列产品[object Object] ×

功能说明

  • 算子功能: aclnnMatmulReduceScatterV2接口是对aclnnMatmulReduceScatter接口的功能扩展,在支持x1和x2输入类型为FLOAT16/BFLOAT16的基础上,新增了对低精度数据类型FLOAT8_E4M3FN/FLOAT8_E5M2/HIFLOAT8的支持。支持pertensor、perblockundefined。 功能可分为以下三种情形:
    • 如果x1和x2数据类型为FLOAT16/BFLOAT16时,入参x1、x2进行matmul计算后,进行reducescatter通信。
    • 如果x1和x2数据类型为FLOAT8_E4M3FN/FLOAT8_E5M2/HIFLOAT8的pertensor场景,且不输出amaxOut,入参x1、x2进行matmul计算和dequant计算后,进行reducescatter通信。
    • 如果x1和x2数据类型为FLOAT8_E4M3FN/FLOAT8_E5M2/HIFLOAT8的perblock场景,且不输出amaxOut,当x1为(a0, a1)x2为(b0, b1)时x1Scale为(ceildiv(a0, 128), ceildiv(a1, 128))x2Scale为(ceildiv(b0, 128), ceildiv(b1, 128))时,入参x1、x2进行matmul计算和dequant计算后,再进行reducescatter通信。
  • 计算公式
    • 情形1:output=reducescatter(x1@x2)output=reducescatter(x1@x2)
    • 情形2:output=reducescatter((x1Scalex2Scale)(x1@x2+biasoptional))output=reducescatter((x1Scale*x2Scale)*(x1@x2 + bias_{optional}))
    • 情形3:
    output=reducescatter(0kblockSize(x1pr@x2rq(x1Scaleprx2Scalerq)))output=reducescatter(\sum_{0}^{\left \lfloor \frac{k}{blockSize} \right \rfloor} (x1_{pr}@x2_{rq}*(x1Scale_{pr}*x2Scale_{rq})))

函数原型

每个算子分为两段式接口,必须先调用“aclnnMatmulReduceScatterV2GetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMatmulReduceScatterV2”接口执行计算。

  • aclnnStatus aclnnMatmulReduceScatterV2GetWorkspaceSize(const aclTensor* x1, const aclTensor* x2, const aclTensor* bias, const aclTensor* x1Scale, const aclTensor* x2Scale, const aclTensor* quantScale, int64_t blockSize, const char* group, const char* reduceOp, int64_t commTurn, int64_t streamMode, int64_t groupSize, aclTensor* output, aclTensor* amaxOutOptional, uint64_t* workspaceSize, aclOpExecutor** executor)
  • aclnnStatus aclnnMatmulReduceScatterV2(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)

aclnnMatmulReduceScatterV2GetWorkspaceSize

  • 参数说明:

    • x1(aclTensor*,计算输入):Device侧的两维aclTensor,mm左矩阵。数据类型支持FLOAT16、BFLOAT16、FLOAT8_E4M3FN、FLOAT8_E5M2、HIFLOAT8,shape为[m, k], 数据格式支持ND。当前版本仅支持两维输入,且仅支持不转置场景
    • x2(aclTensor*,计算输入):Device侧的两维aclTensor,mm左矩阵。数据类型支持FLOAT16、BFLOAT16、FLOAT8_E4M3FN、FLOAT8_E5M2、HIFLOAT8,shape为[k, n], 数据格式支持ND。支持通过转置构造的undefined当前版本仅支持两维输入
    • bias(aclTensor*,计算输入):Device侧的一维aclTensor。数据类型支持FLOAT16、BFLOAT16、FLOAT。数据格式支持ND。如果x1的数据类型是FLOAT16、BFLOAT16,则bias的数据类型必须为FLOAT16、BFLOAT16,且当前版本仅支持为0的输入。如果x1的数据类型是FLOAT8_E4M3FN、FLOAT8_E5M2、HIFLOAT8时,在pertensor场景下,bias的数据类型必须为FLOAT,在perblock场景下,仅支持输入为nullptr。
    • x1Scale(aclTensor*,计算输入):Device侧的一维aclTensor,mm左矩阵反量化参数。数据类型支持FLOAT。当x1和x2数据类型为FLOAT16/BFLOAT16时,仅支持输入为nullptr。在pertensor场景下,shape为[1]。在perblock场景下,shape为[ceildiv(m, 128), ceildiv(k, 128)]。数据格式支持ND。
    • x2Scale(aclTensor*,计算输入):Device侧的一维aclTensor,mm右矩阵反量化参数。数据类型支持FLOAT。当x1和x2数据类型为FLOAT16/BFLOAT16时,仅支持输入为nullptr。在pertensor场景下,shape为[1]。在perblock场景下,shape为[ceildiv(k, 128), ceildiv(n, 128)]。数据格式支持ND。
    • quantScale(aclTensor*,计算输入):Device侧的一维aclTensor,mm输出矩阵量化参数。数据类型支持FLOAT。当前版本仅支持nullptr
    • blockSize (int64_t,计算输入):Host侧的整型,用于表示mm输出矩阵在M轴方向上和N轴方向上可以用于对应方向上的多少个数的量化。blockSize由blockSizeM, blockSizeN,blockSizeK三个值拼接而成,每个值占16位,计算公式为:blockSize = blockSizeK | blockSizeN << 16 | blockSizeM << 32,mm输出矩阵不涉及K轴,blockSizeK固定为0。当前版本只支持blockSizeM = blockSizeN = 0
    • group(char*,计算输入):Host侧的char,标识列组的字符串。数据类型支持String。通过Hccl提供的接口“extern HcclResult HcclGetCommName(HcclComm comm, char* commName);”获取, 其中commName即为group。
    • reduceOp(char*,计算输入):Host侧的char,reduce操作类型。数据类型支持String。当前版本仅支持“sum”
    • commTurn(int64_t,计算输入):Host侧的整型,通信数据切分数,即总数据量/单次通信量。数据类型支持INT64。当前版本仅支持输入0
    • streamMode(int64_t,计算输入):Host侧的整型,流模式的枚举,当前只支持枚举值1,数据类型支持INT64。
    • groupSize(int64_t,计算输入):用于表示反量化中x1Scale/x2Scale输入的一个数在其所在的对应维度方向上可以用于该方向x1/x2输入的多少个数的反量化。groupSize输入由3个方向的groupSizeM,groupSizeN,groupSizeK三个值拼接组成,每个值占16位,计算公式为:groupSize = groupSizeK | groupSizeN << 16 | groupSizeM << 32。当x1Scale/x2Scale输入都是2维,且数据类型都为FLOAT32时,[groupSizeM,groupSizeN,groupSizeK]取值组合仅支持[128, 128, 128],对应groupSize的值为549764202624;其他场景输入,当前版本仅支持输入0。
    • output(aclTensor*,计算输出):Device侧的aclTensor,mm计算+reducescatter通信的结果。数据类型支持FLOAT16、BFLOAT16、FLOAT,数据格式支持ND。如果x1数据类型为FLOAT16、BFLOAT16时,output数据类型与x1一致。
    • amaxOutOptional(aclTensor*,计算输出):Device侧的一维aclTensor,mm计算的最大值结果。当前版本仅支持nullptr
    • workspaceSize(uint64_t*,出参):Device侧的整型,返回需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor**,出参):Device侧的aclOpExecutor,返回op执行器,包含了算子计算流程。
  • 返回值:

    返回aclnnStatus状态码,具体参见undefined

    [object Object]

aclnnMatmulReduceScatterV2

  • 参数说明:

    • workspace(void*,入参):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t,入参):在Device侧申请的workspace大小,由第一段接口aclnnMatmulReduceScatterV2GetWorkspaceSize获取。
    • executor(aclOpExecutor*,入参):op执行器,包含了算子计算流程。
    • stream(aclrtStream,入参):指定执行任务的Stream。
  • 返回值:

    返回aclnnStatus状态码,具体参见undefined

约束说明

  • 只支持x2矩阵转置/不转置,x1矩阵仅支持不转置场景。
  • 输入x1为2维,其shape为(m, k),m须为卡数rank_size的整数倍。
  • 输入x2必须是2维,其shape为(k, n),轴满足mm算子入参要求,k轴相等,且k轴取值范围为[256, 65535)。
  • bias为1维,shape为(n,)。
  • 输出为2维,其shape为(m/rank_size, n), rank_size为卡数。
  • 当x1、x2的数据类型为FLOAT16/BFLOAT16时,x1/x2支持的空tensor场景,m和n可以为空,k不可为空,且需满足以下条件:
    • m为空,k不为空,n不为空;
    • m不为空,k不为空,n为空;
    • m为空,k不为空,n为空。
  • 当x1、x2的数据类型为FLOAT8_E4M3FN/FLOAT8_E5M2/HIFLOAT8时,不支持空tensor。
  • 当x1、x2的数据类型为FLOAT16/BFLOAT16/HIFLOAT8时,x1和x2的数据类型需要保持一致。
  • 当x1、x2的数据类型为FLOAT8_E4M3FN/FLOAT8_E5M2时,x1和x2的数据可以为其中一种。

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考undefined

[object Object]