接口功能:量化矩阵乘和Gelu计算融合。
计算公式:
x1Scale, bias INT32(此场景无offset):
x1Scale, bias BFLOAT16/FLOAT16/FLOAT32(此场景无offset):
x1Scale无bias:
OP类型由fusedOpType输入定义,支持如下:
gelu_tanh运算:
gelu_erf运算:
每个算子分为,必须先调用“aclnnFusedQuantMatmulGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnFusedQuantMatmul”接口执行计算。
[object Object]
[object Object]
确定性说明:
- [object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]、[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:aclnnFusedQuantMatmul默认确定性实现。
输入和输出支持以下数据类型组合:
[object Object]undefined
当前接口支持x1 pertoken量化和x2 perchannel/pertensor量化,不同的支持的x1、 x2、x1Scale和x2Scale的输入dtype组合约束为:
- x1数据类型支持INT8、INT32、INT4。
- 当数据类型为INT32、INT4时,为INT4量化场景:
- 当前仅支持ND输入。
- 当前只支持不转置输入。
- 要求x1内轴为偶数。
- 当数据类型为INT32时,每个INT32数据存放8个INT4数据,对应维度表示:(batch,m,k // 8),要求k为8的倍数。
- 当数据类型为INT32、INT4时,为INT4量化场景:
- x2数据类型支持INT8、INT32、INT4。
- x1Scale约束如下:
- shape支持1维,形状为(m,),数据类型支持FLOAT32。
- x2Scale的约束如下:
- shape支持1维,形状为(n,)或者(1,),其中n与x2的n一致,数据类型支持FLOAT32、BFLOAT16。
- biasOptional的约束如下:
- shape支持1、3维,INT4量化场景下只支持biasOptional为1维,shape为(n),3维时biasOptional shape为(batch, 1, n)。
- 数据类型支持int32、float32、bfloat16或float16。
- out的约束如下:
- shape支持2~6维,(batch,m,n)。数据类型支持FLOAT16、BFLOAT16。
- x1数据类型支持INT8、INT32、INT4。
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object]、[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]: x1为INT8,x2为INT8,x1Scale为FLOAT32,x2Scale为FLOAT32。
[object Object]