quantize_model
功能说明
将输入的待量化的图结构按照给定的量化配置文件进行量化处理,在传入的图结构中插入权重量化,以及数据量化等相关的算子,生成量化因子记录文件record_file,返回修改后的ONNX校准模型。
函数原型
quantize_model(config_file, model_file, modified_onnx_file, record_file)
参数说明
| 参数名 | 输入/返回值 | 含义 | 使用限制 | 
|---|---|---|---|
| config_file | 输入 | 用户生成的量化配置文件,用于指定模型network中量化层的配置情况。 | 数据类型:string | 
| model_file | 输入 | 用户原始onnx模型文件或者通过create_quant_config生成的updated模型。 | 数据类型:string | 
| modified_onnx_file | 输入 | 文件名,用于存储待执行数据量化的ONNX校准模型。 | 数据类型:string | 
| record_file | 输入 | 量化因子记录文件路径及名称。 | 数据类型:string | 
返回值说明
无。
调用示例
| 1 2 3 4 5 6 7 8 9 10 11 | import amct_onnx as amct model_file = "resnet101.onnx" scale_offset_record_file = os.path.join(TMP, 'scale_offset_record.txt') modified_model = os.path.join(TMP, 'modified_model.onnx') config_file="./configs/config.json" # 插入量化API amct.quantize_model(config_file, model_file, modified_model, scale_offset_record_file) | 
父主题: 训练后量化接口