aclnnWeightQuantMatmulAllReduce
产品支持情况
说明: 使用该接口时,请确保驱动固件包和CANN包都为配套的8.0.RC2版本或者配套的更高版本,否则将会引发报错,比如BUS ERROR等。
功能说明
接口功能:对入参x2进行伪量化计算后,完成Matmul和AllReduce计算。支持pertensor、perchannel、pergroup量化方式。
计算公式:
函数原型
每个算子分为,必须先调用“aclnnWeightQuantMatmulAllReduceGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnWeightQuantMatmulAllReduce”接口执行计算。
aclnnWeightQuantMatmulAllReduceGetWorkspaceSize
参数说明:
[object Object]- [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:
- 输入x2的数据类型支持INT8、INT4,数据格式支持ND(当前版本仅支持二维输入)和FRACTAL_NZ格式(当前版本仅支持四维输入)。当x2的数据格式为FRACTAL_NZ时,配合aclnnCalculateMatmulWeightSizeV2和aclnnTransMatmulWeight完成输入ND到NZ的转换,非连续的tensor仅支持transpose场景。
- 输入bias的数据类型与x1保持一致。
- 输入x3的数据类型支持BFLOAT16、FLOAT16。
- 输出output的数据类型支持BFLOAT16、FLOAT16。
- [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:
返回值:
第一段接口完成入参校验,出现以下场景时报错:
[object Object]
aclnnWeightQuantMatmulAllReduce
约束说明
确定性计算:
- aclnnWeightQuantMatmulAllReduce默认非确定性实现,支持通过aclrtCtxSetSysParamOpt开启确定性。
增量场景不使能MC2,全量场景使能MC2。
输入x1可为二维或者三维,其shape为(b, s, k)或者(m, k)。
x2必须是二维。其shape为(k, n),k轴满足mm算子入参要求,k轴相等,m的范围为[1, 2147483647],k、n的范围为[1, 65535]。
传入的x1、x2、antiquantScale或者output不为空指针。
当输入x1的shape为(b, s, k)时,x3(非空场景)与输出output的shape为(b, s, n);当输入x1的shape为(m, k)时,x3(非空场景)与输出output的shape为(m, n)。
bias若非空,shape大小与output最后一维大小相等。antiquantScale在pertensor场景下shape为(1),在perchannel场景下shape为(1,n)/(n),在pergroup场景shape为(ceil(k,antiquantGroupSize), n)。antiquantOffset若非空,其shape与antiquantScale一致。
x1和x2,x3(非空场景)、antiquantScale、antiquantOffset(非空场景)、output、bias(非空场景)的数据类型和数据格式需要在支持的范围之内。
x1,antiquantScale,antiquantOffset(非空场景),x3(非空场景)、bias(非空场景)output的数据类型相同。antiquantGroupSize取值满足取值范围且为32倍数。
per-group场景下,x2转置时,antiquantScale和antiquantOffset需要一起转置,保持连续性。
在长序列场景,随着b/s或者m的增大,可能出现OOM或者计算超时。
仅支持hccs链路all mesh组网。
- [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:支持1、2、4、8卡。
[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:一个模型中的通算融合MC2算子,仅支持相同通信域。
调用示例
[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:
[object Object]