aclnnQuantMatmulV3
支持的产品型号
- Atlas A2训练系列产品/Atlas 800I A2推理产品
- Atlas 推理系列产品
接口原型
每个算子分为undefined,必须先调用“aclnnQuantMatmulV3GetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnQuantMatmulV3”接口执行计算。
aclnnStatus aclnnQuantMatmulV3GetWorkspaceSize(const aclTensor* x1, const aclTensor* x2, const aclTensor* scale, const aclTensor* offset, const aclTensor* bias, bool transposeX1, bool transposeX2, const aclTensor* out, uint64_t* workspaceSize, aclOpExecutor** executor)
aclnnStatus aclnnQuantMatmulV3(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)
功能描述
算子功能:完成量化的矩阵乘计算,最小支持输入维度为2维,最大支持输入维度为6维。相似接口有aclnnMm(仅支持2维Tensor作为输入的矩阵乘)和aclnnBatchMatMul(仅支持三维的矩阵乘,其中第一维是Batch维度)。
计算公式:
无bias:
bias int32:
bias bfloat16(此场景无offset):
aclnnQuantMatmulV3GetWorkspaceSize
参数说明:
x1(const aclTensor*,计算输入):公式中的输入x1,数据类型支持INT8、INT32、INT4,支持最后两根轴转置情况下的非连续tensor,其他场景的undefined不支持,undefined支持ND,shape最少是2维,最多是6维,在transposeX1为false情况下各个维度表示:(batch,m,k),batch可不存在。当数据类型为INT32、INT4时,为INT4量化场景,当前仅支持Atlas A2训练系列产品/Atlas 800I A2推理产品,transposeX1为false情况。其中当x1数据类型为INT4时,维度表示:(batch, m, k),要求k为偶数,当x1数据类型为INT32时,每个INT32数据存放8个INT4数据,对应维度表示:(batch, m, k // 8),要求k为8的倍数。
x2(const aclTensor*,计算输入):公式中的输入x2,数据类型支持INT8、INT32、INT4,支持最后两根轴转置情况下的非连续tensor,其他场景的undefined不支持,undefined支持ND格式和昇腾亲和数据排布格式。当数据类型为INT32、INT4时,为INT4量化场景,当前仅支持Atlas A2训练系列产品/Atlas 800I A2推理产品,2维ND格式。
- ND格式下,shape最少是2维,最多是6维,在transposeX2为false情况下各个维度表示:(batch,k,n),batch可不存在,其中k与x1的shape中的k一致。
- 昇腾亲和数据排布格式下,shape最少是4维,最多是8维。在transposeX2为true情况下各个维度表示:(batch,k1,n1, n0, k0),batch可不存在,其中k0 = 32, n0 = 16, x1 shape中的k和x2 shape中的k1需要满足以下关系:ceilDiv(k,32) = k1。在transposeX2为false情况下各个维度表示:(batch,n1,k1, k0, n0),batch可不存在,其中k0 = 16, n0 = 32, x1 shape中的k和x2 shape中的k1需要满足以下关系:ceilDiv(k,16) = k1。 可使用aclnnCalculateMatmulWeightSizeV2接口以及aclnnTransMatmulWeight接口完成输入Format从ND到昇腾亲和数据排布格式的转换。(当输入x2为昇腾亲和数据排布格式时,当前Atlas 推理系列产品上QuantBatchMatmulV3算子不支持transposeX2为false的场景)
- 数据类型为INT4时,在transposeX2为true情况下各个维度表示:(n, k),要求k为偶数;在transposeX2为false情况下各个维度表示:(k, n),要求n为偶数。数据类型为INT32时,每个INT32数据存放8个INT4数据,在transposeX2为true情况下各个维度表示:(n, k // 8),要求k为8的倍数;在transposeX2为false情况下各个维度表示:(k, n // 8),要求n为8的倍数。 可使用aclnnConvertWeightToINT4Pack接口完成x2从INT32(1个int32在0~3bit位存储1个int4)到INT32(1个int32存储8个int4)或INT4(1个int4表示1个int4)的数据格式转换,具体参见undefined。
scale(const aclTensor*,计算输入):公式中的输入scale,量化参数,数据类型支持UINT64,INT64,FLOAT32,BFLOAT16,undefined支持ND,shape是1维(t,),t = 1或n,其中n与x2的n一致。
- 输出为INT8、FLOAT16时,需要提前调用TransQuantParamV2算子的aclnn接口来将scale转成INT64、UINT64数据类型。
- 输出为BFLOAT16时,直接将BFLOAT16或FLOAT32类型的scale传入本接口,其中BFLOAT16仅Atlas A2训练系列产品/Atlas 800I A2推理产品支持。
offset(const aclTensor*,计算输入):公式中的输入offset,可选量化参数,数据类型支持FLOAT32,undefined支持ND,shape是1维(t,),t = 1或n,其中n与x2的n一致。
bias(const aclTensor*,计算输入):公式中的输入bias,数据类型支持INT32,BFLOAT16,undefined支持ND,shape支持1维(n,)或3维(batch,1,n),n与x2的n一致。
transposeX1(bool,计算输入):表示x1的输入shape是否包含transpose,默认是false,若为true,x1的shape表示为(batch,k,m),batch可不存在。
transposeX2(bool,计算输入):表示x2的输入shape是否包含transpose,默认是false,若为true,x2的shape表示为(batch,n,k),batch可不存在。
out(aclTensor*, 计算输出):公式中的输出out,数据类型支持FLOAT16,INT8,BFLOAT16,支持undefined,undefined支持ND,shape最少是2维,最多是6维,(batch,m,n),batch可不存在,支持x1与x2的batch维度broadcast,输出batch与broadcast之后的batch一致,m与x1的m一致,n与x2的n一致。其中BFLOAT16仅Atlas A2训练系列产品/Atlas 800I A2推理产品支持。
workspaceSize(uint64_t*, 出参):返回用户需要在Device侧申请的workspace大小。
executor(aclOpExecutor**, 出参):返回op执行器,包含了算子计算流程。
返回值:
aclnnStatus:返回状态码,具体参见undefined。
[object Object]
aclnnQuantMatmulV3
参数说明:
- workspace(void*, 入参):在Device侧申请的workspace内存地址。
- workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnQuantMatmulV3GetWorkspaceSize获取。
- executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。
- stream(aclrtStream, 入参):指定执行任务的 AscendCL Stream流。
返回值:
aclnnStatus:返回状态码,具体参见undefined。
约束与限制
无。
调用示例
示例代码如下(以Atlas A2训练系列产品/Atlas 800I A2推理产品为例),仅供参考,具体编译和执行过程请参考undefined。
Atlas A2训练系列产品/Atlas 800I A2推理产品x2为昇腾亲和数据排布格式场景的示例代码如下(transposeX2=false),仅供参考,具体编译和执行过程请参考undefined。
Atlas 推理系列产品x2为昇腾亲和数据排布格式场景的示例代码如下(transposeX2=true),仅供参考,具体编译和执行过程请参考undefined。
Atlas A2训练系列产品/Atlas 800I A2推理产品 INT4量化场景示例代码如下(x1和x2数据类型为int4,transposeX2=false),仅供参考,具体编译和执行过程请参考undefined。