训练后量化简易配置文件
calibration_config_pytorch.proto文件参数说明如表1所示,该文件所在目录为:AMCT安装目录/amct_pytorch/proto/calibration_config_pytorch.proto。
消息 |
是否必填 |
类型 |
字段 |
说明 |
---|---|---|---|---|
AMCTConfig |
- |
- |
- |
AMCT训练后量化的简易量化配置。 |
optional |
uint32 |
batch_num |
量化使用的batch数量。 |
|
optional |
bool |
activation_offset |
数据量化是否带offset。全局配置参数。
|
|
repeated |
string |
skip_layers |
不需要量化层的层名。 |
|
repeated |
string |
skip_layer_types |
不需要量化的层类型。 |
|
optional |
NuqConfig |
nuq_config |
非均匀量化配置。 |
|
optional |
FakequantPrecisionMode |
fakequant_precision_mode |
fakequant模型中quant自定义算子的scale_d数值精度模式。
|
|
optional |
CalibrationConfig |
common_config |
通用的量化配置,全局量化配置参数。若某层未被override_layer_types或者override_layer_configs重写,则使用该配置。 参数优先级:override_layer_configs>override_layer_types>common_config |
|
repeated |
OverrideLayerType |
override_layer_types |
重写某一类型层的量化配置,即对哪些层进行差异化量化。 例如全局量化配置参数配置的量化因子搜索步长为0.01,可以通过该参数对部分层进行差异化量化,可以配置搜索步长为0.02。 参数优先级:override_layer_configs>override_layer_types>common_config |
|
repeated |
OverrideLayer |
override_layer_configs |
重写某一层的量化配置,即对哪些层进行差异化量化。 例如全局量化配置参数配置的量化因子搜索步长为0.01,可以通过该参数对部分层进行差异化量化,可以配置搜索步长为0.02。 参数优先级:override_layer_configs>override_layer_types>common_config |
|
optional |
bool |
do_fusion |
是否开启BN融合功能,默认为true,表示开启该功能。 |
|
repeated |
string |
skip_fusion_layers |
跳过BN融合的层,配置之后这些层不会进行BN融合。 |
|
NuqConfig |
- |
- |
- |
非均匀量化配置。 |
required |
string |
mapping_file |
均匀量化后的deploy模型通过ATC工具转换得到的om模型,然后通过ATC工具转换得到json文件,即量化后模型的融合json文件。 |
|
optional |
NUQuantize |
nuq_quantize |
非均匀量化的参数。 |
|
OverrideLayerType |
- |
- |
- |
重置某层类型的量化配置。 |
required |
string |
layer_type |
支持量化的层类型的名字。 |
|
required |
CalibrationConfig |
calibration_config |
重置的量化配置。 |
|
OverrideLayer |
- |
- |
- |
重置某层量化配置。 |
required |
string |
layer_name |
被重置层的层名。 |
|
required |
CalibrationConfig |
calibration_config |
重置的量化配置。 |
|
CalibrationConfig |
- |
- |
- |
Calibration量化的配置。 |
- |
ARQuantize |
arq_quantize |
权重量化算法配置。 arq_quantize:ARQ量化算法配置。 |
|
- |
NUQuantize |
nuq_quantize |
权重量化算法配置。 nuq_quantize:非均匀量化算法配置。 |
|
- |
ADAquantize |
ada_quantize |
权重量化算法配置。 ada_quantize:Adaptive rounding (AdaRound) ,自适应舍入量化算法配置。 |
|
- |
FMRQuantize |
ifmr_quantize |
数据量化算法配置。 ifmr_quantize:IFMR量化算法配置。 |
|
- |
HFMGQuantize |
hfmg_quantize |
数据量化算法配置。 hfmg_quantize:HFMG量化算法配置。 |
|
- |
DMQBalancer |
dmq_balancer |
均衡量化算法配置。 dmq_balancer:DMQBalancer均衡算法配置。 |
|
ARQuantize |
- |
- |
- |
ARQ量化算法配置。算法介绍请参见ARQ权重量化算法。 该算法与ADAquantize、NUQuantize算法不能同时配置,若同时配置,则以配置文件中最后配置的量化算法为准。 |
optional |
bool |
channel_wise |
是否对每个channel采用不同的量化因子。
|
|
optional |
uint32 |
quant_bits |
权重量化位宽。支持配置为INT6、INT7、INT8。 默认为INT8量化。 该字段配置为INT6、INT7仅支持Conv2d类型算子。 如果在common_config中配置quant_bits为INT6、INT7,则只对Conv2d算子生效,其他算子改为默认INT8。 |
|
ADAquantize |
- |
- |
- |
AdaRound自适应舍入量化算法,算法介绍请参见ADA权重量化算法。量化样例请参见ada round量化校准。 该算法与ARQuantize、NUQuantize算法不能同时配置,若同时配置,则以配置文件中最后配置的量化算法为准。 该量化算法支持的激活函数为:ReLU、RReLU、LeakyReLU、PReLU、GELU、ReLU6、Sigmoid、Tanh。 上述激活函数对应的onnx算子为:Relu、LeakyRelu、LeakyRelu、PRelu、Gelu、Clip、Sigmoid、Tanh。 AMCT工具获取量化配置中的可量化层(该特性支持的量化层为torch.nn.Linear、torch.nn.Conv2d、torch.nn.ConvTranspose2d,约束请参见均匀量化),按照导出的onnx模型中的拓扑顺序获取可量化模块,若量化模块后为上述激活函数,将量化模块和激活函数作为一个整体。 说明: 将上述激活函数导出为onnx算子时,需要torch 2.1版本torch.onnx.export接口,且Gelu算子需要Opset版本为v20,其他算子Opset版本为v17。 |
optional |
uint32 |
num_iteration |
迭代次数,取值范围>=0,默认值为10000。 |
|
optional |
float |
reg_param |
正则化参数,取值范围为(0,1),默认值为0.01。 |
|
optional |
float |
beta_range_start |
beta起始参数,默认值为20,beta_range_start>beta_range_end>0。 |
|
optional |
float |
beta_range_end |
beta终止参数,默认值为2。 |
|
optional |
float |
warm_start |
预热因子,取值范围为(0,1),默认值为0.2。 |
|
optional |
bool |
channel_wise |
是否对每个channel采用不同的量化因子。
|
|
DMQBalancer |
- |
- |
- |
DMQ均衡算法配置。算法介绍请参见DMQ均衡算法。 |
optional |
float |
migration_strength |
迁移强度,代表将activation数据上的量化难度迁移至weight权重的程度。支持的范围为[0.2, 0.8],默认值0.5,数据分布的离群值越大迁移强度应设置较小。 |
|
FMRQuantize |
- |
- |
- |
FMR数据量化算法配置。算法介绍请参见IFMR数据量化算法。 该算法与HFMGQuantize算法不能同时配置,若同时配置,则以配置文件中最后配置的量化算法为准。 |
optional |
float |
search_range_start |
量化因子搜索范围左边界。 |
|
optional |
float |
search_range_end |
量化因子搜索范围右边界。 |
|
optional |
float |
search_step |
量化因子搜索步长。 |
|
optional |
float |
max_percentile |
最大值搜索位置。 |
|
optional |
float |
min_percentile |
最小值搜索位置。 |
|
optional |
bool |
asymmetric |
是否进行对称量化。用于控制逐层量化算法的选择。
如果override_layer_configs、override_layer_types、common_config配置项都配置该参数,或者配置了 activation_offset参数,则生效优先级为: override_layer_configs>override_layer_types>common_config>activation_offset |
|
optional |
CalibrationDataType |
dst_type |
量化位宽,数据量化是采用INT8量化还是INT16量化,默认为INT8量化。当前版本仅支持INT8量化。 |
|
HFMGQuantize |
- |
- |
- |
HFMG数据量化算法配置。算法介绍请参见HFMG数据量化算法。 该算法与FMRQuantize算法不能同时配置,若同时配置,则以配置文件中最后配置的量化算法为准。 |
optional |
uint32 |
num_of_bins |
直方图的bin(直方图中的一个最小单位直方图形)数目,支持的范围为{1024, 2048, 4096, 8192}。 默认值为4096。 |
|
optional |
bool |
asymmetric |
是否进行对称量化。用于控制逐层量化算法的选择。
如果override_layer_configs、override_layer_types、common_config配置项都配置该参数,或者配置了 activation_offset参数,则生效优先级为: override_layer_configs>override_layer_types>common_config>activation_offset |
|
optional |
CalibrationDataType |
dst_type |
数据量化位宽,数据量化是采用INT8量化还是INT16量化,默认为INT8量化。当前版本仅支持INT8量化。 |
|
NUQuantize |
- |
- |
- |
非均匀量化参数。算法介绍请参见NUQ权重量化算法。 该算法与ARQuantize、ADAquantize算法不能同时配置,若同时配置,则以配置文件中最后配置的量化算法为准。 |
optional |
uint32 |
num_steps |
非均匀量化的台阶数。 |
|
optional |
uint32 |
num_of_iteration |
非均匀量化优化的迭代次数。 |
- 基于该文件构造的均匀量化简易配置文件quant.cfg样例如下所示:
# global quantize parameter batch_num : 2 activation_offset : true skip_layers : "Opname" skip_layer_types:"Optype" do_fusion: true skip_fusion_layers : "Opname" common_config : { arq_quantize : { channel_wise : true quant_bits : 7 } ifmr_quantize : { search_range_start : 0.7 search_range_end : 1.3 search_step : 0.01 max_percentile : 0.999999 min_percentile : 0.999999 asymmetric : true } dmq_balancer : { migration_strength : 0.5 } } override_layer_types : { layer_type : "Conv2d" calibration_config : { arq_quantize : { channel_wise : false quant_bits : 6 } ifmr_quantize : { search_range_start : 0.8 search_range_end : 1.2 search_step : 0.02 max_percentile : 0.999999 min_percentile : 0.999999 asymmetric : false } dmq_balancer : { migration_strength : 0.5 } } } override_layer_configs : { layer_name : "Opname" calibration_config : { arq_quantize : { channel_wise : true } ifmr_quantize : { search_range_start : 0.8 search_range_end : 1.2 search_step : 0.02 max_percentile : 0.999999 min_percentile : 0.999999 asymmetric : false } dmq_balancer : { migration_strength : 0.5 } } }
如果数据量化算法使用HFMG,则上述配置文件中加粗部分可以替换成如下参考参数信息,举例如下(如下配置信息只是样例,请根据实际情况进行修改):
# global quantize parameter activation_offset : true batch_num : 2 ... common_config : { hfmg_quantize : { num_of_bins : 4096 asymmetric : false } ... }
- 基于该文件构造的自适应舍入简易配置文件ada_round.cfg样例如下所示:
common_config : { ada_quantize : { num_iteration : 10000 warm_start : 0.2 reg_param : 0.01 beta_range_start : 20 beta_range_end : 2 channel_wise : false } }
- 基于该文件构造的量化数据均衡预处理简易配置文件dmq_balancer.cfg样例如下所示:
# global quantize parameter batch_num : 2 activation_offset : true skip_layers : "Opname" skip_layer_types:"Optype" do_fusion: true skip_fusion_layers : "Opname" common_config : { arq_quantize : { channel_wise : true } ifmr_quantize : { search_range_start : 0.7 search_range_end : 1.3 search_step : 0.01 max_percentile : 0.999999 min_percentile : 0.999999 asymmetric : true } dmq_balancer : { migration_strength : 0.5 } } override_layer_types : { layer_type : "Optype" calibration_config : { arq_quantize : { channel_wise : false } ifmr_quantize : { search_range_start : 0.8 search_range_end : 1.2 search_step : 0.02 max_percentile : 0.999999 min_percentile : 0.999999 asymmetric : false } dmq_balancer : { migration_strength : 0.5 } } } override_layer_configs : { layer_name : "Opname" calibration_config : { arq_quantize : { channel_wise : true } ifmr_quantize : { search_range_start : 0.8 search_range_end : 1.2 search_step : 0.02 max_percentile : 0.999999 min_percentile : 0.999999 asymmetric : false } dmq_balancer : { migration_strength : 0.5 } } }