torch_npu.contrib.module.LinearWeightQuant
产品支持情况
| 产品 | 是否支持 |
|---|---|
| [object Object]Atlas A3 训练系列产品[object Object] | √ |
| [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object] | √ |
| [object Object]Atlas 推理系列产品[object Object] | √ |
功能说明
LinearWeightQuant是对torch_npu.npu_weight_quant_batchmatmul接口的封装类,完成矩阵乘计算中的weight输入和输出的量化操作,支持pertensor、perchannel、pergroup多场景量化。
当前[object Object]Atlas 推理系列产品[object Object]仅支持perchannel量化。
函数原型
参数说明
计算参数
- in_features(
int):伪量化matmul计算中的k轴的值。 - out_features(
int):伪量化matmul计算中的n轴的值。 - bias(
bool):可选参数,默认为True,代表是否需要bias计算参数。如果设置成False,则bias不会加入伪量化matmul的计算。 - device(
string):可选参数,用于执行model的device名称,默认为None。 - dtype(
torch.dtype):伪量化matmul运算中的输入x的dtype,可选参数,默认为None。 - antiquant_offset(
bool):可选参数,默认为False,代表是否需要antiquant_offset计算参数。如果设置成False,则weight矩阵反量化时无需设置offset。 - quant_scale(
bool):可选参数,默认为False,代表是否需要quant_scale计算参数。如果设置成False,则伪量化输出不会进行量化计算。 - quant_offset(
bool):可选参数,默认为False,代表是否需要quant_offset计算参数。如果设置成False,则对伪量化输出进行量化计算时无需设置offset。 - antiquant_group_size(
int):可选参数,用于控制pergroup场景下的group大小,当前默认为0。传入值的范围为[32,K-1]且值要求是32的倍数。[object Object]Atlas 推理系列产品[object Object]:暂不支持此参数。 - inner_precise(
int):计算模式选择,默认为0。0表示高精度模式,1表示高性能模式,可能会影响精度。当weight以int32类型且以FRACTAL_NZ格式输入,M不大于16的pergroup场景下可以设置为1,提升性能。其他场景不建议使用高性能模式。
计算输入
x(Tensor):Tensor类型,即矩阵乘中的x。数据格式支持,支持输入维度为两维(M, K) 。
- [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]/[object Object]Atlas A3 训练系列产品[object Object] :数据类型支持
float16、bfloat16。 - [object Object]Atlas 推理系列产品[object Object] :数据类型仅支持
float16。
变量说明
weight(
Tensor):即矩阵乘中的weight。数据格式支持、FRACTAL_NZ,支持非连续的Tensor,支持输入维度为两维(N, K)。- [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]/[object Object]Atlas A3 训练系列产品[object Object]:数据类型支持
int8、int32(通过int32承载int4的输入,可以参考的调用示例)。 - [object Object]Atlas 推理系列产品[object Object]:数据类型支持
int8。weight FRACTAL_NZ格式只在图模式有效,依赖接口torchair.experimental.inference.use_internal_format_weight完成数据格式从ND到FRACTAL_NZ转换,可参考。
- [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]/[object Object]Atlas A3 训练系列产品[object Object]:数据类型支持
antiquant_scale(
Tensor):反量化的scale,用于weight矩阵反量化。数据格式支持。支持非连续的Tensor,支持输入维度为两维(N, 1)或一维(N,)、(1,)。[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]/[object Object]Atlas A3 训练系列产品[object Object] :数据类型支持
float16、bfloat16、int64。pergroup场景shape要求为(N, ceil_div(K, antiquant_group_size))。[object Object]Atlas 推理系列产品[object Object] :数据类型支持
float16,其数据类型需要和x保持一致。
antiquant_offset(
Tensor):反量化的offset,用于weight矩阵反量化。数据格式支持。支持非连续的Tensor,支持输入维度为两维(N, 1)或一维(N,)、(1,)。[object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]/[object Object]Atlas A3 训练系列产品[object Object] :数据类型支持
float16、bfloat16、int32。pergroup场景shape要求为(N, ceil_div(K, antiquant_group_size))。- 若数据类型为
float16、bfloat16,其数据类型需要和antiquant_scale保持一致。 - 若数据类型为
int32,则antiquant_scale的数据类型必须为int64。
- 若数据类型为
[object Object]Atlas 推理系列产品[object Object] :数据类型仅支持
float16,其数据类型需要和antiquant_scale保持一致。
quant_scale(
Tensor):量化的scale,用于输出矩阵的量化。仅在weight格式为时支持,数据格式支持,数据类型支持float32、int64,支持输入维度为两维(1, N)或一维(N,)、(1,)。当antiquant_scale的数据类型为int64时,此参数必须为空。[object Object]Atlas 推理系列产品[object Object] :暂不支持此参数。quant_offset(
Tensor):量化的offset,用于输出矩阵的量化。仅在weight格式为时支持,数据格式支持,数据类型支持float32,支持输入维度为两维(1, N)或一维(N,)、(1, )。当antiquant_scale的数据类型为int64时,此参数必须为空。[object Object]Atlas 推理系列产品[object Object] :暂不支持此参数。bias(
Tensor):即矩阵乘中的bias,数据格式支持,数据类型支持float16、float32,支持非连续的Tensor,支持输入维度为两维(1, N)或一维(N,)、(1,)。antiquant_group_size(
int):用于控制pergroup场景下的group大小,默认为0。传入值的范围为[32, K-1]且值要求是32的倍数。[object Object]Atlas 推理系列产品[object Object] :暂不支持此参数。
返回值说明
Tensor
代表计算结果。当输入存在quant_scale时输出数据类型为int8,当输入不存在quant_scale时输出数据类型和输入x一致。
约束说明
- 该接口支持推理场景下使用。
- 该接口支持图模式。当输入
weight为FRACTAL_NZ格式时暂不支持单算子调用,只支持图模式调用。 x和weight后两维必须为(M, K)和(N, K)格式,K、N的范围为[1, 65535];在x为非转置时,M的范围为[1, 2^31-1];在x为转置时,M的范围为[1, 65535]。- 不支持空Tensor输入。
antiquant_scale和antiquant_offset的输入shape要保持一致。quant_scale和quant_offset的输入shape要保持一致,且quant_offset不能独立于quant_scale存在。- 当
x输入类型为bfloat16类型时,bias的输入类型为float32;当x输入类型为float16类型时,bias的输入类型为float16。 - 如需传入
int64数据类型的quant_scale,需要提前调用torch_npu.npu_trans_quant_param接口将数据类型为float32的quant_scale和quant_offset转换为数据类型为int64的quant_scale输入,可参考。 - 当输入
weight为FRACTAL_NZ格式且类型为int32时,perchannel场景需满足weight为转置输入;pergroup场景需满足x为转置输入,weight为非转置输入,antiquant_group_size为64或128,K为antiquant_group_size对齐,N为64对齐。
调用示例[object Object][object Object]
单算子模式调用
[object Object]图模式调用
[object Object]