昇腾社区首页
中文
注册
开发者
下载

aclnnAllGatherMatmulV2

产品支持情况

产品 是否支持
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]
[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]
[object Object]Atlas 200I/500 A2 推理产品[object Object] ×
[object Object]Atlas 推理系列产品 [object Object] ×
[object Object]Atlas 训练系列产品[object Object] ×

功能说明

  • 算子功能: aclnnAllGatherMatmulV2接口是对aclnnAllGatherMatmul接口的功能拓展,在支持x1和x2输入类型为FLOAT16/BFLOAT16的基础上,

    • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]:
      • x1和x2新增了对低精度数据类型INT8的支持。支持pertoken/perchannel
  • 计算公式

    • 情形1:如果x1和x2数据类型为FLOAT16/BFLOAT16时,入参x1进行allgather后,对x1、x2进行matmul计算;
    output=allgather(x1)@x2+biasoutput=allgather(x1)@x2 + bias gatherOut=allgather(x1)gatherOut=allgather(x1)
    • 情形2:如果x1和x2数据类型为FLOAT8_E4M3FN/FLOAT8_E5M2/HIFLOAT8, 或者x1和x2数据类型为INT8的perchannel、pertoken场景,不输出amaxOut,入参x1进行allgather后,对x1、x2进行matmul计算,然后进行dequant操作;
    output=(x1Scalex2Scale)(allgather(x1)@x2+bias)output=(x1Scale*x2Scale)*(allgather(x1)@x2 + bias) gatherOut=allgather(x1)gatherOut=allgather(x1)
    • 情形3:如果x1和x2数据类型为FLOAT8_E4M3FN/FLOAT8_E5M2/HIFLOAT8,且输出amaxOut,入参x1进行allgather后,对x1、x2进行matmul计算,然后进行dequant操作,最后进行quant操作, 当前版本暂不支持;

      output=(x1Scalex2Scale)(quantScale)(allgather(x1)@x2+bias)output=(x1Scale*x2Scale)*(quantScale)*(allgather(x1)@x2 + bias) gatherOut=allgather(x1)gatherOut=allgather(x1) amaxOut=amax((x1Scalex2Scale)(allgather(x1)@x2+bias))amaxOut=amax((x1Scale*x2Scale)*(allgather(x1)@x2 + bias))
    • 情形4:如果groupSize取值为有效值,入参x1进行allgather后,对x1、x2进行perblock量化matmul计算,然后进行dequant操作。

      output[r(i),r(j)]=k=1KgroupSizeKx1Scale[i,k]x2Scale[k,j](allgather(x1)[r(i),r(j)]@x2[r(k),r(j)])r(z)=(groupSizeK(z1)+1):(groupSizeKz)output=[output[r(1),r(1)]output[r(1),r(NgroupSizeN)]output[r(MgroupSizeM),r(1)]output[r(MgroupSizeM),r(NgroupSizeN)]]\begin{align*} & output[r(i), r(j)] = \sum_{k=1}^{\frac{K}{groupSizeK}} x1Scale[i, k] * x2Scale[k, j] * (allgather(x1)[r(i), r(j)] @ x2[r(k), r(j)]) \\ & r(z) = (groupSizeK * (z - 1) + 1) : (groupSizeK * z) \\ & output = \begin{bmatrix} output[r(1), r(1)] & \cdots & output[r(1), r(\frac{N}{groupSizeN})] \\ \vdots & \ddots & \vdots \\ output[r(\frac{M}{groupSizeM}), r(1)] & \vdots & output[r(\frac{M}{groupSizeM}), r(\frac{N}{groupSizeN})] \end{bmatrix} \end{align*}

      其中output[r(y),r(z)]output\left[r(y), r(z)\right]表示从output矩阵中取出第(groupSizeM(y1)+1)(groupSizeM*(y-1)+1)(groupSizeMy)(groupSizeM*y)行和(groupSizeN(z1)+1)(groupSizeN*(z-1)+1)(groupSizeNz)(groupSizeN*z)列构成的块。

函数原型

每个算子分为两段式接口,必须先调用“aclnnAllGatherMatmulV2GetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnAllGatherMatmulV2”接口执行计算。

  • aclnnStatus aclnnAllGatherMatmulV2GetWorkspaceSize(const aclTensor* x1, const aclTensor* x2, const aclTensor* bias, const aclTensor* x1Scale, const aclTensor* x2Scale, const aclTensor* quantScale, int64_t blockSize, const char* group, int64_t gatherIndex, int64_t commTurn, int64_t streamMode, int64_t groupSize, const char* commMode, aclTensor* output, aclTensor* gatherOut, aclTensor* amaxOut, uint64_t* workspaceSize, aclOpExecutor** executor)
  • aclnnStatus aclnnAllGatherMatmulV2(void* workspace, uint64_t workspaceSize, aclOpExecutor* executor, aclrtStream stream)

aclnnAllGatherMatmulV2GetWorkspaceSize

  • 参数说明:

    • x1(aclTensor*,计算输入):Device侧的两维aclTensor,MM左矩阵,即计算公式中的x1。
      • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]、[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:commMode为aicpu时,数据类型支持FLOAT16、BFLOAT16;commMode为aiv时,数据类型支持FLOAT16、BFLOAT16、INT8, shape为[m, k],支持ND。当前版本仅支持两维输入,且仅支持不转置场景
    • x2(aclTensor*,计算输入):Device侧的两维aclTensor,MM右矩阵。即公式中的x2。
      • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]、[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:commMode为aicpu时,数据类型支持FLOAT16、BFLOAT16;commMode为aiv时,数据类型支持FLOAT16、BFLOAT16、INT8。 shape为[k, n],支持ND。支持通过转置构造的当前版本仅支持两维输入
    • bias(aclTensor*,计算输入):Device侧的aclTensor,即公式中的bias。
      • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]、[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:在commMode为aicpu时,数据类型支持FLOAT16、BFLOAT16,支持ND。且当前版本仅支持为0的输入。在commMode为aiv时,当前版本仅支持输入nullptr。
    • x1Scale(aclTensor*,计算输入):Device侧的aclTensor, mm左矩阵反量化参数。
      • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]、[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:在commMode为aicpu时,仅支持输入nullptr。在commMode为aiv时,数据类型支持FLOAT,,支持ND。当x1和x2数据类型为FLOAT16/BFLOAT16时,仅支持输入为nullptr。在pertoken场景,shape为(m, 1)。
    • x2Scale(aclTensor*,计算输入):Device侧的aclTensor, mm右矩阵反量化参数。
      • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]、[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:在commMode为aicpu时,仅支持输入nullptr。在commMode为aiv时,数据类型支持FLOAT、INT64,支持ND。INT64数据类型仅在output数据类型为FLOAT16场景支持。当x1和x2数据类型为FLOAT16/BFLOAT16时,仅支持输入为nullptr。在perchannel场景, shape为[1, n]。
    • quantScale(aclTensor*,计算输入):Device侧的一维aclTensor,mm输出矩阵量化参数。shape为[1],数据类型支持FLOAT。支持ND。当前版本仅支持nullptr
    • blockSize (int64_t,计算输入):Host侧的整型,用于表示mm输出矩阵在M轴方向上和N轴方向上可以用于对应方向上的多少个数的量化。blockSize由blockSizeM、blockSizeN、blockSizeK三个值拼接而成,每个值占16位,计算公式为blockSize = blockSizeK | blockSizeN << 16 | blockSizeM << 32,mm输出矩阵不涉及K轴,blockSizeK固定为0。当前版本只支持blockSizeM=blockSizeN=0
    • group(char*,计算输入):Host侧标识列组的字符串,通信域名称,数据类型支持string,通过Hccl提供的接口获取:extern HcclResult HcclGetCommName(HcclComm comm, char* commName);commName即为group。
    • gatherIndex(int64_t,计算输入):Host侧的整型,标识gather目标,0:左矩阵,1:右矩阵。数据类型支持INT64。当前版本仅支持输入0
    • commTurn(int64_t,计算输入):Host侧的整型,通信数据切分数,即总数据量/单次通信量。数据类型支持INT64。当前版本仅支持输入0
    • streamMode(int64_t,计算输入):Host侧的整型,流模式的枚举,数据类型支持INT64。当前只支持取1
    • groupSize(int64_t,计算输入):用于表示反量化中x1Scale/x2Scale输入的一个数在其所在的对应维度方向上可以用于该方向x1/x2输入的多少个数的反量化。groupSize输入由3个方向的groupSizeM、groupSizeN、groupSizeK三个值拼接组成,每个值占16位,计算公式为groupSize = groupSizeK | groupSizeN << 16 | groupSizeM << 32。
      • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]、[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:当前版本仅支持输入为0。
    • commMode (char*,计算输入):Host侧的整型,通信模式。
      • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]、[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:当前支持两种模式:aicpu和aiv。aicpu模式下使用aicpu完成通信功能,功能等同于aclnnMatmulReduceScatter算子;aiv模式下使用AI VECTOR核完成通信任务。
    • output(aclTensor*,计算输出):Device侧的aclTensor,all_gather+MM计算的结果。即公式中的ouput。
      • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]、[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:数据类型支持FLOAT16、BFLOAT16,支持ND。如果x1数据类型为FLOAT16、BFLOAT16时,output数据类型与x1一致。
    • gatherOut(aclTensor*,计算输出):Device侧的aclTensor,仅输出all_gather通信后的结果。即公式中的gatherOut。数据类型支持FLOAT16、BFLOAT16、FLOAT8_E4M3FN、FLOAT8_E5M2、HIFLOAT8,且数据类型与x1保持一致。支持ND。
    • amaxOut (aclTensor*,计算输出) :Device侧的一维aclTensor,MM计算的最大值结果,即公式中的amaxOut,shape为[1],数据类型支持FLOAT。当前版本仅支持nullptr
    • workspaceSize(uint64_t*,出参):Device侧的整型,返回需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor**,出参):Device侧的aclOpExecutor,返回op执行器,包含了算子计算流程。
  • 返回值:

    返回aclnnStatus状态码,具体参见

    [object Object]

aclnnAllGatherMatmulV2

  • 参数说明:

    • workspace(void*,入参):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t,入参):在Device侧申请的workspace大小,由第一段接口aclnnAllGatherMatmulV2GetWorkspaceSize获取。
    • executor(aclOpExecutor*,入参):op执行器,包含了算子计算流程。
    • stream(aclrtStream,入参):指定执行任务的Stream。
  • 返回值:

    返回aclnnStatus状态码,具体参见

约束说明

  • [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]、[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:
    • 只支持x2矩阵转置/不转置,x1矩阵仅支持不转置场景。
    • 输入x2必须是2维,其shape为(k, n),轴满足mm算子入参要求,k轴相等,且k轴取值范围为[256, 65535)。
    • bias为1维,shape为(n,)。
    • 输出为2维,其shape为(m*rank_size, n), rank_size为卡数。
    • 不支持空tensor。
    • x1和x2的数据类型需要保持一致。
    • 支持2、4、8卡。

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考

[object Object]