概览
本节给出命令行场景所使用的参数概览。
 
 - 如果通过amct_xxx calibration --help命令查询出的参数未解释在表1,则说明该参数预留或适用于其他芯片版本,用户无需关注。
- 使用amct_xxx命令行进行量化时,命令有两种方式,用户根据实际情况进行选择:- amct_xxx calibration param1=value1 param2=value2 ...(value值前面不能有空格,否则会导致截断,param取的value值为空)
- amct_xxx calibration param1 value1 param2 value2 ...
 
xxx请替换为具体框架名称:caffe、tensorflow、onnx。
| 参数项 | 参数说明 | 使用框架/网络 | 使用场景 | 
|---|---|---|---|
| 打印帮助信息。 | 
 | 
 | |
| 待量化网络的模型文件路径与文件名,格式为.prototxt。 | 
 | 
 | |
| 待量化网络的权重文件路径与文件名,格式为.caffemodel。该参数仅适用于Caffe框架模型。 | 
 | 
 | |
| 指定原始模型输出Tensor的名称。 | 
 | 
 | |
| 量化后模型的存放路径。 | 
 | 
 | |
| 指定模型输入的shape,该shape需要与数据集处理后输入数据shape一致。 若未使用--evaluator参数,则该参数必填。 | 
 | 
 | |
| 训练后量化推理阶段的batch数。 | 
 | 
 | |
| 训练后量化简易配置文件路径与文件名。 | 
 | 
 | |
| 与模型匹配的bin格式数据集路径。 若未使用--evaluator参数,则该参数必填。 | 
 | 
 | |
| 输入数据的类型。 若未使用--evaluator参数,则该参数必填。 | 
 | 
 | |
| 基于"Evaluator"基类并且包含evaluator评估器的python脚本。 该参数与--input_shape、--data_dir、--data_types不能同时使用。 | 
 | 
 | |
| 模型压缩特性使能开关。 | 
 | 
 | |
| 指定使用GPU进行量化。 | 
 | 
 | 
父主题: 命令行参数说明