昇腾社区首页
中文
注册

aclnnQuantMatmulAllReduceAddRmsNorm&aclnnInplaceQuantMatmulAllReduceAddRmsNorm

产品支持情况

产品 是否支持
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object] ×
[object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]
[object Object]Atlas 200I/500 A2 推理产品[object Object] ×
[object Object]Atlas 推理系列产品 [object Object] ×
[object Object]Atlas 训练系列产品[object Object] ×

说明: 使用该接口时,请确保驱动固件包和CANN包都为配套的8.0.RC2版本或者配套的更高版本,否则将会引发报错,比如BUS ERROR等。

功能说明

  • 算子功能:完成mm + all_reduce + add + rms_norm计算。
  • 计算公式mmout=allReduce(dequantScale(x1int8@x2int8+biasint32))mm_out = allReduce(dequantScale * (x1_{int8}@x2_{int8} + bias_{int32})) y=mmout+residualy = mm_out + residual normOut=yRMS(y)gamma,RMS(y)=1di=1dyi2+epsilonnormOut = \frac{y}{RMS(y)} * gamma, RMS(y) = \sqrt{\frac{1}{d} \sum_{i=1}^{d} y_{i}^{2} + epsilon}

函数原型

  • aclnnQuantMatmulAllReduceAddRmsNorm和aclnnInplaceQuantMatmulAllReduceAddRmsNorm实现相同的功能,使用区别如下,请根据自身实际场景选择合适的算子。

    • aclnnQuantMatmulAllReduceAddRmsNorm:需新建两个输出张量normOut和张量y对象存储计算结果。
    • aclnnInplaceQuantMatmulAllReduceAddRmsNorm:需新建一个输出张量normOut,原非Inplace场景中新建的输出张量y存储的结果直接存储到输入张量residual的内存中。
  • 每个算子分为undefined,必须先调用“aclnnQuantMatmulAllReduceAddRmsNormGetWorkspaceSize”或者“aclnnInplaceQuantMatmulAllReduceAddRmsNormGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnQuantMatmulAllReduceAddRmsNorm”或者“aclnnInplaceQuantMatmulAllReduceAddRmsNorm”接口执行计算。

    • aclnnStatus aclnnQuantMatmulAllReduceAddRmsNormGetWorkspaceSize(const aclTensor *x1, const aclTensor *x2, const aclTensor *bias, const aclTensor *dequantScale, const aclTensor *residual, const aclTensor *gamma, double epsilon, const char* group, const char *reduceOp, int64_t commTurn, int64_t streamMode, const aclTensor *y, const aclTensor *normOut, uint64_t *workspaceSize, aclOpExecutor **executor)
    • aclnnStatus aclnnQuantMatmulAllReduceAddRmsNorm(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, const aclrtStream stream)
    • aclnnStatus aclnnInplaceQuantMatmulAllReduceAddRmsNormGetWorkspaceSize(const aclTensor *x1, const aclTensor *x2, const aclTensor *bias, const aclTensor *dequantScale, const aclTensor *residual, const aclTensor *gamma, double epsilon, const char* group, const char *reduceOp, int64_t commTurn, int64_t streamMode, const aclTensor *normOut, uint64_t *workspaceSize, aclOpExecutor **executor)
    • aclnnStatus aclnnInplaceQuantMatmulAllReduceAddRmsNorm(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, const aclrtStream stream)

aclnnQuantMatmulAllReduceAddRmsNormGetWorkspaceSize

  • 参数说明:

    • x1(aclTensor*, 计算输入):公式中的输入x1,数据类型支持INT8,undefined支持ND。Device侧的aclTensor,mm左矩阵,不支持非连续输入。当前版本仅支持二维或者三维输入。
    • x2(aclTensor*, 计算输入):公式中的输入x2,数据类型支持INT8,undefined支持ND。Device侧的aclTensor,mm右矩阵。undefined仅支持transpose场景。当前版本仅支持二维输入。
    • bias(aclTensor*, 计算输入):公式中的输入bias,数据类型支持INT32,undefined支持ND。Device侧的aclTensor,当前版本仅支持一维输入。
    • dequantScale(aclTensor*, 计算输入):公式中的输入dequantScale,数据类型支持UINT64、BFLOAT16。undefined支持ND。matmul计算后的全量化系数。shape在per-tensor场景为(1),per-channel场景为(n)/(1, n)。
    • residual(aclTensor*, 计算输入):公式中的输入residual,数据类型支持FLOAT16、BFLOAT16。undefined支持ND。Device侧的aclTensor,AddRmsNorm融合算子的残差输入,不支持undefined。当前版本仅支持三维输入。
    • gamma(aclTensor*, 计算输入):公式中的输入gamma,数据类型支持FLOAT16、BFLOAT16。undefined支持ND。Device侧的aclTensor,AddRmsNorm融合算子的RmsNorm计算输入,不支持undefined。当前版本仅支持一维输入。
    • epsilon(double, 计算输入):公式中的输入epsilon,Host侧双精度,用于防止除0错误。epsilon取值满足取值范围(0,1)。
    • group(char*, 计算输入):通信域名称。数据类型支持String。通过Hccl提供的接口获取:extern HcclResult HcclGetCommName(HcclComm comm, char* commName); commName即为group。
    • reduceOp(char*, 计算输入):reduce操作类型。数据类型支持String。当前版本仅支持输入"sum"。
    • commTurn(int64_t, 计算输入):Host侧的整型,数据类型支持INT64。通信数据切分数,即总数据量/单次通信量。当前版本仅支持输入0。
    • streamMode(int64_t, 计算输入):Host侧的整型,类型支持INT64。流模式的枚举,当前只支持枚举值1。
    • y(aclTensor*, 计算输出):公式中的输出y,数据类型支持FLOAT16、BFLOAT16,且数据类型同residual输入。Device侧的aclTensor,mm + all_reduce + add的结果。
    • normOut(aclTensor*, 计算输出):公式中的输出normOut,数据类型支持FLOAT16、BFLOAT16,且数据类型同residual输入。Device侧的aclTensor,mm + all_reduce + add + rms_norm的结果。
    • workspaceSize(uint64_t*, 出参):返回需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor**, 出参):返回op执行器,包含了算子计算流程。
  • 返回值:

    返回aclnnStatus状态码,具体参见undefined

    [object Object]

aclnnQuantMatmulAllReduceAddRmsNorm

  • 参数说明:

    • workspace(void*, 入参):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnQuantMatmulAllReduceAddRmsNormGetWorkspaceSize获取。
    • executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。
    • stream(aclrtStream, 入参):指定执行任务的Stream。
  • 返回值:

    返回aclnnStatus状态码,具体参见undefined

aclnnInplaceQuantMatmulAllReduceAddRmsNormGetWorkspaceSize

  • 参数说明:

    • x1(aclTensor*, 计算输入):公式中的输入x1,数据类型支持INT8,undefined支持ND。Device侧的aclTensor,mm左矩阵,不支持非连续输入。当前版本仅支持二维或者三维输入。
    • x2(aclTensor*, 计算输入):公式中的输入x2,数据类型支持INT8,undefined支持ND。Device侧的aclTensor,mm右矩阵。undefined仅支持transpose场景。当前版本仅支持二维输入。
    • bias(aclTensor*, 计算输入):公式中的输入bias,数据类型支持INT32,undefined支持ND。Device侧的aclTensor,当前版本仅支持一维输入。
    • dequantScale(aclTensor*, 计算输入):公式中的输入dequantScale,数据类型支持UINT64、BFLOAT16。undefined支持ND。mm计算后的全量化系数。shape在per-tensor场景为(1),per-channel场景为(n)/(1, n)。
    • residual(aclTensor*, 计算输入):公式中的输入residual,数据类型支持FLOAT16、BFLOAT16。undefined支持ND。Device侧的aclTensor,AddRmsNorm融合算子的残差输入,不支持undefined。当前版本仅支持三维输入。inplace场景将residual作为y的输出地址。
    • gamma(aclTensor*, 计算输入):公式中的输入gamma,数据类型支持FLOAT16、BFLOAT16。undefined支持ND。Device侧的aclTensor,AddRmsNorm融合算子的RmsNorm计算输入,不支持undefined。当前版本仅支持一维输入。
    • epsilon(double, 计算输入):公式中的输入epsilon,Host侧双精度,用于防止除0错误。epsilon取值满足取值范围(0,1)。
    • group(char*, 计算输入):通信域名称。数据类型支持String。通过Hccl提供的接口“extern HcclResult HcclGetCommName(HcclComm comm, char* commName);”获取,其中commName即为group。
    • reduceOp(char*, 计算输入):reduce操作类型。数据类型支持String。当前版本仅支持输入"sum"。
    • commTurn(int64_t, 计算输入):Host侧的整型,数据类型支持INT64。通信数据切分数,即总数据量/单次通信量。当前版本仅支持输入0。
    • streamMode(int64_t, 计算输入):Host侧的整型,类型支持INT64。流模式的枚举,当前只支持枚举值1。
    • normOut(aclTensor*, 计算输出):公式中的输出normOut,数据类型支持FLOAT16、BFLOAT16,且数据类型同residual输入。Device侧的aclTensor,mm + all_reduce + add + rms_norm的结果。
    • workspaceSize(uint64_t*, 出参):返回需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor**, 出参):返回op执行器,包含了算子计算流程。
  • 返回值:

    返回aclnnStatus状态码,具体参见undefined

    [object Object]

aclnnInplaceQuantMatmulAllReduceAddRmsNorm

  • 参数说明:

    • workspace(void*, 入参):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnInplaceQuantMatmulAllReduceAddRmsNormGetWorkspaceSize获取。
    • executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。
    • stream(aclrtStream, 入参):指定执行任务的Stream。
  • 返回值:

    返回aclnnStatus状态码,具体参见undefined

约束说明

  • 使用场景同融合算子undefined一致:增量场景不使能MC2,全量场景使能MC2。
  • 输入x1可为二维或者三维,其shape为(b, s, k)或者(m, k)。x2必须是二维,其shape为(k, n),轴满足mm算子入参要求,k轴相等。bias若非空,bias为一维,其shape为(n)。
  • m大小不超过2147483647,x1与x2的最后一维大小不超过65535,x1的最后一维指k,x2的最后一维指转置时的k或非转置时的n。
  • 输入residual必须是三维,其shape为(b, s, n),当x1为二维时,residual的(b*s)等于x1的m。输入gamma其shape为(n)。
  • 输出y和normOut的维度和数据类型同residual,其shape为(b, s, n)。
  • 若输出residual类型为FLOAT16,dequantScale的类型为UINT64、INT64;若输出residual类型为BFLOAT16,dequantScale的类型为BFLOAT16。
  • x1、x2数据类型为INT8,bias数据类型为INT32、residual、gamma、y、normOut计算输入的数据类型要一致。
  • 只支持x2矩阵转置/不转置,x1矩阵支持不转置场景。
  • 支持1、2、4、8卡,并且仅支持hccs链路all mesh组网。
  • 支持(b*s)、n为0的空tensor,不支持k为0的空tensor。
  • [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:一个模型中的通算融合MC2算子,仅支持相同通信域。

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考undefined

[object Object]