昇腾社区首页
中文
注册

aclnnAllGatherMatmulV2

产品支持情况

产品 是否支持
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object] ×
[object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object] ×
[object Object]Atlas 200I/500 A2 推理产品[object Object] ×
[object Object]Atlas 推理系列产品 [object Object] ×
[object Object]Atlas 训练系列产品[object Object] ×

功能说明

  • 算子功能: aclnnAllGatherMatamulV2接口是对aclnnAllGatherMatmul接口的功能拓展,x1和x2新增支持低精度数据类型(如FLOAT8_E4M3FN/FLOAT8_E5M2/HIFLOAT8),同时支持pertensor、perblockundefined

    功能可分为以下4种情形:

    • 如果x1和x2数据类型为FLOAT16/BFLOAT16时,入参x1进行allgather后,对x1、x2进行matmul计算;
    • 如果x1和x2数据类型为FLOAT8_E4M3FN/FLOAT8_E5M2/HIFLOAT8,不输出amaxOut,入参x1进行allgather后,对x1、x2进行matmul计算,然后进行dequant操作;
    • 如果x1和x2数据类型为FLOAT8_E4M3FN/FLOAT8_E5M2/HIFLOAT8,且输出amaxOut,入参x1进行allgather后,对x1、x2进行matmul计算,然后进行dequant操作,最后进行quant操作, 当前版本暂不支持;
    • 如果groupSize取值为有效值,入参x1进行allgather后,对x1、x2进行perblock量化matmul计算,然后进行dequant操作。
  • 计算公式

    • 情形1:
    output=allgather(x1)@x2+biasoutput=allgather(x1)@x2 + bias gatherOut=allgather(x1)gatherOut=allgather(x1)
    • 情形2:
    output=(x1Scalex2Scale)(allgather(x1)@x2+bias)output=(x1Scale*x2Scale)*(allgather(x1)@x2 + bias) gatherOut=allgather(x1)gatherOut=allgather(x1)
    • 情形3:

      output=(x1Scalex2Scale)(quantScale)(allgather(x1)@x2+bias)output=(x1Scale*x2Scale)*(quantScale)*(allgather(x1)@x2 + bias) gatherOut=allgather(x1)gatherOut=allgather(x1) amaxOut=amax((x1Scalex2Scale)(allgather(x1)@x2+bias))amaxOut=amax((x1Scale*x2Scale)*(allgather(x1)@x2 + bias))
    • 情形4:

      output[r(i),r(j)]=k=1KgroupSizeKx1Scale[i,k]x2Scale[k,j](allgather(x1)[r(i),r(j)]@x2[r(k),r(j)])r(z)=(groupSizeK(z1)+1):(groupSizeKz)output=[output[r(1),r(1)]output[r(1),r(NgroupSizeN)]output[r(MgroupSizeM),r(1)]output[r(MgroupSizeM),r(NgroupSizeN)]]\begin{align*} & output[r(i), r(j)] = \sum_{k=1}^{\frac{K}{groupSizeK}} x1Scale[i, k] * x2Scale[k, j] * (allgather(x1)[r(i), r(j)] @ x2[r(k), r(j)]) \\ & r(z) = (groupSizeK * (z - 1) + 1) : (groupSizeK * z) \\ & output = \begin{bmatrix} output[r(1), r(1)] & \cdots & output[r(1), r(\frac{N}{groupSizeN})] \\ \vdots & \ddots & \vdots \\ output[r(\frac{M}{groupSizeM}), r(1)] & \vdots & output[r(\frac{M}{groupSizeM}), r(\frac{N}{groupSizeN})] \end{bmatrix} \end{align*}

      其中output[r(y),r(z)]output\left[r(y), r(z)\right]表示从output矩阵中取出第(groupSizeM(y1)+1)(groupSizeM*(y-1)+1)(groupSizeMy)(groupSizeM*y)行和(groupSizeN(z1)+1)(groupSizeN*(z-1)+1)(groupSizeNz)(groupSizeN*z)列构成的块。

函数原型

每个算子分为两段式接口,必须先调用“aclnnAllGatherMatmulV2GetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnAllGatherMatmulV2”接口执行计算。

  • aclnnStatus aclnnAllGatherMatmulV2GetWorkspaceSize(const aclTensor* x1, const aclTensor* x2, const aclTensor* bias, const aclTensor* x1Scale, const aclTensor* x2Scale, const aclTensor* quantScale, int64_t blockSize, const char* group, int64_t gatherIndex, int64_t commTurn, int64_t streamMode, int64_t groupSize, aclTensor* output, aclTensor* gatherOut, aclTensor* amaxOut, uint64_t* workspaceSize, aclOpExecutor** executor)
  • aclnnStatus aclnnAllGatherMatmulV2(void* workspace, uint64_t workspaceSize, aclOpExecutor* executor, aclrtStream stream)

aclnnAllGatherMatmulV2GetWorkspaceSize

  • 参数说明:

    • x1(aclTensor*,计算输入):Device侧的两维aclTensor,MM左矩阵,即计算公式中的x1。数据类型支持FLOAT16、BFLOAT16、FLOAT8_E4M3FN、FLOAT8_E5M2、HIFLOAT8。数据格式支持ND。当前版本仅支持两维输入,且仅支持不转置场景
    • x2(aclTensor*,计算输入):Device侧的两维aclTensor,MM右矩阵。即公式中的x2。数据类型支持FLOAT16、BFLOAT16、FLOAT8_E4M3FN、FLOAT8_E5M2、HIFLOAT8。数据格式支持ND。支持通过转置构造的undefined当前版本仅支持两维输入
    • bias(aclTensor*,计算输入):Device侧的aclTensor,即公式中的bias。 数据类型支持FLOAT16、BFLOAT16、FLOAT。数据格式支持ND。如果x1的数据类型是FLOAT8_E4M3FN、FLOAT8_E5M2、HIFLOAT8,则bias的数据类型必须为FLOAT。如果x1的数据类型是FLOAT16、BFLOAT16,则bias的数据类型必须为FLOAT16、BFLOAT16,且当前版本仅支持为0的输入。在perblock场景下,当前版本仅支持输入nullptr;其他仅支持一维输入
    • x1Scale(aclTensor*,计算输入) : Device侧的aclTensor, mm左矩阵反量化参数。当x1和x2数据类型为FLOAT16/BFLOAT16时,仅支持输入为nullptr。当x1和x2数据类型为FLOAT8_E4M3FN/FLOAT8_E5M2/HIFLOAT8,在pertensor场景下,其shape为[1];在perblock场景下,其shape为[t, d],t=ceilDiv(m, 128),d=ceilDiv(k, 128),其中m与x1的m一致,k与x1的k一致,数据类型支持FLOAT。数据格式支持ND。
    • x2Scale(aclTensor*,计算输入) : Device侧的aclTensor, mm右矩阵反量化参数。当x1和x2数据类型为FLOAT16/BFLOAT16时,仅支持输入为nullptr。当x1和x2数据类型为FLOAT8_E4M3FN/FLOAT8_E5M2/HIFLOAT8,在pertensor场景下,其shape为[1];在perblock场景下,其shape为[t, d],t=ceilDiv(k, 128),d=ceilDiv(n, 128),其中n与x2的n一致,k与x2的k一致,数据类型支持FLOAT。数据格式支持ND。
    • quantScale(aclTensor*,计算输入) : Device侧的一维aclTensor,mm输出矩阵量化参数。shape为[1],数据类型支持FLOAT。数据格式支持ND。当前版本仅支持nullptr
    • blockSize (int64_t,计算输入):Host侧的整型,用于表示mm输出矩阵在M轴方向上和N轴方向上可以用于对应方向上的多少个数的量化。blockSize由blockSizeM、blockSizeN、blockSizeK三个值拼接而成,每个值占16位,计算公式为blockSize = blockSizeK | blockSizeN << 16 | blockSizeM << 32,mm输出矩阵不涉及K轴,blockSizeK固定为0。当前版本只支持blockSizeM=blockSizeN=0
    • group(char*,计算输入):Host侧标识列组的字符串,通信域名称,数据类型支持string,通过Hccl提供的接口获取:extern HcclResult HcclGetCommName(HcclComm comm, char* commName); commName即为group。
    • gatherIndex(int64_t,计算输入):Host侧的整型,标识gather目标,0:左矩阵,1:右矩阵。数据类型支持INT64。当前版本仅支持输入0
    • commTurn(int64_t,计算输入):Host侧的整型,通信数据切分数,即总数据量/单次通信量。数据类型支持INT64。当前版本仅支持输入0
    • streamMode(int64_t,计算输入):Host侧的整型,流模式的枚举,数据类型支持INT64。当前只支持取1
    • groupSize(int64_t,计算输入):用于表示反量化中x1Scale/x2Scale输入的一个数在其所在的对应维度方向上可以用于该方向x1/x2输入的多少个数的反量化。groupSize输入由3个方向的groupSizeM、groupSizeN、groupSizeK三个值拼接组成,每个值占16位,计算公式为groupSize = groupSizeK | groupSizeN << 16 | groupSizeM << 32。当x1Scale/x2Scale输入都是2维,且数据类型都为FLOAT32时,[groupSizeM, groupSizeN, groupSizeK]取值组合仅支持[128, 128, 128],对应groupSize的值为549764202624;其他场景输入,当前版本仅支持输入0
    • output(aclTensor*,计算输出):Device侧的aclTensor,all_gather+MM计算的结果。即公式中的ouput。如果x1类型为FLOAT16、BFLOAT16,则output类型与x1保持一致。如果x1类型为FLOAT8_E4M3FN、FLOAT8_E5M2、HIFLOAT8,则数据类型支持FLOAT16、BFLOAT16、FLOAT。数据格式支持ND。
    • gatherOut(aclTensor*,计算输出):Device侧的aclTensor,仅输出all_gather通信后的结果。即公式中的gatherOut。数据类型支持FLOAT16、BFLOAT16、FLOAT8_E4M3FN、FLOAT8_E5M2、HIFLOAT8,且数据类型与x1保持一致。数据格式支持ND。
    • amaxOut (aclTensor*,计算输出) :Device侧的一维aclTensor,MM计算的最大值结果,即公式中的amaxOut,shape为[1],数据类型支持FLOAT。当前版本仅支持nullptr
    • workspaceSize(uint64_t*,出参):Device侧的整型,返回需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor**,出参):Device侧的aclOpExecutor,返回op执行器,包含了算子计算流程。
  • 返回值:

    返回aclnnStatus状态码,具体参见undefined

    [object Object]

aclnnAllGatherMatmulV2

  • 参数说明:

    • workspace(void*,入参):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t,入参):在Device侧申请的workspace大小,由第一段接口aclnnAllGatherMatmulV2GetWorkspaceSize获取。
    • executor(aclOpExecutor*,入参):op执行器,包含了算子计算流程。
    • stream(aclrtStream,入参):指定执行任务的Stream。
  • 返回值:

    返回aclnnStatus状态码,具体参见undefined

约束说明

  • 输入x1为2维,其维度为(m, k)。x2必须是2维,其维度为(k, n),轴满足mm算子入参要求,k轴相等,且k轴取值范围为[256, 65535)。bias为1维,shape为(n,)。
  • 输出output为2维,其维度为(m*rank_size, n),rank_size为卡数。
  • 输出gatherout为2维,其维度为(m*rank_size, k),rank_size为卡数。
  • 当x1、x2的数据类型为FLOAT16/BFLOAT16时,output计算输出数据类型和x1、x2保持一致,bias暂不支持输入为非0的场景,且不支持amaxOut的输入。
  • 当x1、x2的数据类型为FLOAT8_E4M3FN/FLOAT_E5M2/HIFLOAT8时,output输出数据类型支持FLOAT16、BFLOAT16、FLOAT。支持bias输入为FLOAT。
  • 当x1、x2的数据类型为FLOAT16/BFLOAT16/HIFLOAT8时,x1和x2数据类型需要保持一致。
  • 当x1、x2数据类型为FLOAT8_E4M3FN/FLOAT_E5M2时,x1和x2数据类型可以为其中一种。
  • 当x1、x2数据类型为FLOAT16/BFLOAT16/HIFLOAT8/FLOAT8_E4M3FN/FLOAT_E5M2时,x2矩阵支持转置/不转置场景,x1矩阵只支持不转置场景。
  • 当groupSize取值为549764202624,bias必须为空。

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考undefined

[object Object]