概览
本节给出命令行场景所使用的参数概览。
 - 如果通过amct_xxx calibration --help命令查询出的参数未解释在表1,则说明该参数预留或适用于其他芯片版本,用户无需关注。
 - 使用amct_xxx命令行进行量化时,命令有两种方式,用户根据实际情况进行选择:
- amct_xxx calibration param1=value1 param2=value2 ...(value值前面不能有空格,否则会导致截断,param取的value值为空)
 - amct_xxx calibration param1 value1 param2 value2 ...
 
 
xxx请替换为具体框架名称:caffe、tensorflow、onnx。
参数项  | 
参数说明  | 
使用框架/网络  | 
使用场景  | 
|---|---|---|---|
打印帮助信息。  | 
  | 
  | 
|
待量化网络的模型文件路径与文件名: 
  | 
  | 
  | 
|
待量化网络的权重文件路径与文件名,格式为.caffemodel。该参数仅适用于Caffe框架模型。  | 
  | 
  | 
|
指定原始模型输出Tensor的名称。  | 
  | 
  | 
|
量化后模型的存放路径。  | 
  | 
  | 
|
指定模型输入的shape,该shape需要与数据集处理后输入数据shape一致。 若未使用--evaluator参数,则该参数必填。  | 
  | 
  | 
|
训练后量化推理阶段的batch数。  | 
  | 
  | 
|
训练后量化简易配置文件路径与文件名。  | 
  | 
  | 
|
与模型匹配的bin格式数据集路径。 若未使用--evaluator参数,则该参数必填。  | 
  | 
  | 
|
输入数据的类型。 若未使用--evaluator参数,则该参数必填。  | 
  | 
  | 
|
基于"Evaluator"基类并且包含evaluator评估器的Python脚本。 该参数与--input_shape、--data_dir、--data_types不能同时使用。  | 
  | 
  | 
|
模型压缩特性使能开关。  | 
  | 
  | 
|
指定使用GPU进行量化。  | 
  | 
  | 
父主题: 命令行参数说明