参数 |
说明 |
---|---|
CORE_TYPE |
设置网络模型使用的Core类型,若网络模型中包括Cube算子,则只能使用AiCore。
芯片支持情况: 昇腾310 AI处理器,不支持该参数。 昇腾910 AI处理器,不支持该参数。 昇腾310P AI处理器,支持该参数。 |
SOC_VERSION |
该参数为必选配置。 昇腾AI处理器的版本,可以从Ascend-cann-toolkit安装目录/ascend-toolkit/latest/data/platform_config目录下查看,".ini"文件的文件名即为对应的${soc_version}。
如果用户根据上述方法仍旧无法确定具体使用的${soc_version},则:
芯片支持情况: 昇腾310 AI处理器,支持该参数。 昇腾910 AI处理器,支持该参数。 昇腾310P AI处理器,支持该参数。 |
BUFFER_OPTIMIZE |
数据缓存优化开关。
芯片支持情况: 昇腾310 AI处理器 昇腾910 AI处理器 昇腾310P AI处理器 |
ENABLE_COMPRESS_WEIGHT |
AICore支持Weight压缩功能,通过使能该参数,可以对Weight进行数据压缩,在进行算子计算时,对Weight进行解压缩,从而达到减少带宽、提高性能的目的。 该参数使能全局weight压缩,不能与COMPRESS_WEIGHT_CONF同时使用。
芯片支持情况: 昇腾310 AI处理器,不支持该参数。 昇腾910 AI处理器,支持该参数。 昇腾310P AI处理器,不支持该参数。 |
COMPRESS_WEIGHT_CONF |
要压缩的node节点列表配置文件路径,node节点主要为conv算子、fc算子。 路径支持大小写字母、数字,下划线;文件名支持大小写字母、数字,下划线和点(.)。 该参数不能与ENABLE_COMPRESS_WEIGHT参数同时使用。 Weight压缩配置文件由昇腾模型压缩工具输出,文件内容即为node名称列表,node名称之间以“;”间隔开。 例如,compress_weight_nodes.cfg文件内容为:conv1; fc1; conv2_2/x1; fc2; conv5_32/x2;fc6。 芯片支持情况: 昇腾310 AI处理器,不支持该参数。 昇腾910 AI处理器,支持该参数。 昇腾310P AI处理器,不支持该参数。 |
PRECISION_MODE |
选择算子精度模式。
芯片支持情况: 昇腾310 AI处理器,支持该参数。 昇腾910 AI处理器,支持该参数。 昇腾310P AI处理器,支持该参数。 |
TUNE_DEVICE_IDS |
当前版本暂不支持。 |
EXEC_DISABLE_REUSED_MEMORY |
内存复用开关。
芯片支持情况: 昇腾310 AI处理器,支持该参数。 昇腾910 AI处理器,支持该参数。 昇腾310P AI处理器,支持该参数。 |
ENABLE_SINGLE_STREAM |
是否使能一个模型只能使用一条stream。 由于SoC的stream资源有限,在SoC场景下需要用户打开此开关。
芯片支持情况: 昇腾310 AI处理器,不支持该参数。 昇腾910 AI处理器,支持该参数。 昇腾310P AI处理器,不支持该参数。 |
AICORE_NUM |
设置编译时使用的AI Core数目,默认为10。 芯片支持情况: 昇腾310 AI处理器,不支持该参数。 昇腾910 AI处理器,不支持该参数。 昇腾310P AI处理器,不支持该参数。 |
FUSION_SWITCH_FILE |
融合开关配置文件路径以及文件名,路径和文件名:支持大小写字母(a-z,A-Z)、数字(0-9)、下划线(_)、中划线(-)、句点(.)、中文字符。 系统内置了一些图融合和UB融合规则,均为默认开启,可以根据需要关闭指定的融合规则,当前可以关闭的融合规则请参见《图融合和UB融合规则参考》,但是由于系统机制,其他融合规则无法关闭。 配置文件样例fusion_switch.cfg,on表示开启,off表示关闭。 { "Switch":{ "GraphFusion":{ "RequantFusionPass":"on", "ConvToFullyConnectionFusionPass":"off", "SoftmaxFusionPass":"on", "NotRequantFusionPass":"on", "SplitConvConcatFusionPass":"on", "ConvConcatFusionPass":"on", "MatMulBiasAddFusionPass":"on", "PoolingFusionPass":"on", "ZConcatv2dFusionPass":"on", "ZConcatExt2FusionPass":"on", "TfMergeSubFusionPass":"on" }, "UBFusion":{ "TbePool2dQuantFusionPass":"on" } } } 同时支持用户一键关闭融合规则: { "Switch":{ "GraphFusion":{ "ALL":"off" }, "UBFusion":{ "ALL":"off" } } } 需要注意的是:
芯片支持情况: 昇腾310 AI处理器,支持该参数。 昇腾910 AI处理器,支持该参数。 昇腾310P AI处理器,支持该参数。 |
ENABLE_SMALL_CHANNEL |
是否使能small channel的优化,使能后在channel<=4的卷积层会有性能收益。 建议用户在推理场景下打开此开关。
芯片支持情况: 昇腾310 AI处理器,支持该参数。该参数使能后,当前只在Resnet50、Resnet101、Resnet152、GoogleNet网络模型能获得性能收益。其他网络模型性能可能会下降,用户根据实际情况决定是否使能该参数。 昇腾910 AI处理器,支持该参数。该参数使能后,当前只在Resnet50、Resnet101、Resnet152网络模型能获得性能收益。其他网络模型性能可能会下降,用户根据实际情况决定是否使能该参数。 昇腾310P AI处理器,支持该参数。该参数使能后,当前只在Resnet50、Resnet101、Resnet152网络模型能获得性能收益。其他网络模型性能可能会下降,用户根据实际情况决定是否使能该参数。 |
OP_SELECT_IMPL_MODE |
昇腾AI处理器部分内置算子有高精度和高性能实现方式,用户可以通过该参数配置模型编译时选择哪种算子。取值包括:
芯片支持情况: 昇腾310 AI处理器,支持该参数。 昇腾910 AI处理器,支持该参数。 昇腾310P AI处理器,支持该参数。 |
OPTYPELIST_FOR_IMPLMODE |
列举算子optype的列表,该列表中的算子使用OP_SELECT_IMPL_MODE参数指定的模式,当前支持的算子为Pooling、SoftmaxV2、LRN、ROIAlign。 该参数需要与OP_SELECT_IMPL_MODE参数配合使用,例如: OP_SELECT_IMPL_MODE配置为high_precision OPTYPELIST_FOR_IMPLMODE配置为Pooling。 芯片支持情况: 昇腾310 AI处理器,支持该参数。 昇腾910 AI处理器,支持该参数。 昇腾310P AI处理器,支持该参数。 |
OP_COMPILER_CACHE_MODE |
用于配置算子编译磁盘缓存模式。默认值为enable。
使用说明:
芯片支持情况: 昇腾310 AI处理器,支持该参数。 昇腾910 AI处理器,支持该参数。 昇腾310P AI处理器,支持该参数。 |
OP_COMPILER_CACHE_DIR |
用于配置算子编译磁盘缓存的目录。 默认值:$HOME/atc_data 芯片支持情况: 昇腾310 AI处理器,支持该参数。 昇腾910 AI处理器,支持该参数。 昇腾310P AI处理器,支持该参数。 |
DEBUG_DIR |
用于配置保存算子编译生成的调试相关的过程文件的路径,包括算子.o/.json/.cce等文件。 默认生成在当前路径下。 芯片支持情况: 昇腾310 AI处理器,支持该参数。 昇腾910 AI处理器,支持该参数。 昇腾310P AI处理器,支持该参数。 |
OP_DEBUG_LEVEL |
算子debug功能开关,取值:
须知:
模型编译时,建议配置为0或3。如果需要定位AICore Error问题,再选择调试开关选项1和2,是因为加入了调试功能会导致网络性能下降。 芯片支持情况: 昇腾310 AI处理器,支持该参数。 昇腾910 AI处理器,支持该参数。 昇腾310P AI处理器,支持该参数。 |
MODIFY_MIXLIST |
配置混合精度黑白灰名单,配置为路径以及文件名,文件为json格式。 allow_mix_precision混合精度模式下,针对全网中float32数据类型的算子,按照内置的优化策略,自动将部分float32的算子降低精度到float16,从而在精度损失很小的情况下提升系统性能并减少内存使用。用户可以在内置优化策略基础上进行调整,自行指定哪些算子允许降精度,哪些算子不允许降精度。
配置示例:
{ge::ir_option::MODIFY_MIXLIST, "/home/test/ops_info.json"} ops_info.json中可以指定算子类型,多个算子使用英文逗号分隔,样例如下: { "black-list": { // 黑名单 "to-remove": [ // 黑名单算子转换为灰名单算子 "Xlog1py" ], "to-add": [ // 白名单或灰名单算子转换为黑名单算子 "Matmul", "Cast" ] }, "white-list": { // 白名单 "to-remove": [ // 白名单算子转换为灰名单算子 "Conv2D" ], "to-add": [ // 黑名单或灰名单算子转换为白名单算子 "Bias" ] } } 上述配置文件样例中展示的算子仅作为参考,请基于实际硬件环境和具体的算子内置优化策略进行配置。混合精度场景下算子的内置优化策略可在“OPP安装目录/opp/built-in/op_impl/ai_core/tbe/config/${soc_version}/aic-${soc_version}-ops-info.json”文件中查询,例如: "Conv2D":{ "precision_reduce":{ "flag":"true" },
芯片支持情况: 昇腾310 AI处理器,支持该参数。 昇腾910 AI处理器,支持该参数。 昇腾310P AI处理器,支持该参数。 |
SPARSITY |
使能全局稀疏特性。 昇腾模型压缩工具4选2结构化稀疏后输出的模型,可能存在weight连续4个Cin维度元素中至少有2个为0的场景,模型转换时通过使能全局稀疏开关,将该场景下的元素筛选成2个,从而节省后续推理的计算量,提高推理性能。 由于硬件约束,该参数不能与ENABLE_COMPRESS_WEIGHT、COMPRESS_WEIGHT_CONF同时使用。 参数值:
参数默认值:0 芯片支持情况: 昇腾310 AI处理器,不支持该参数。 昇腾910 AI处理器,不支持该参数。 昇腾310P AI处理器,不支持该参数。 |
EXTERNAL_WEIGHT |
是否将网络中Const/Constant节点的权重保存在单独的文件中,取值包括:
说明:当网络中weight占用内存较大且对模型大小有限制时,建议将此配置项设置为“1”。 芯片支持情况: 昇腾310 AI处理器,支持该参数。 昇腾910 AI处理器,支持该参数。 昇腾310P AI处理器,支持该参数。 |
VIRTUAL_TYPE |
是否支持离线模型在昇腾虚拟化实例特性生成的虚拟设备上运行。 当前芯片算力比较大,云端用户或者小企业完全不需要使用这么大算力,昇腾虚拟化实例特性支持对芯片的算力进行切分,可满足用户根据自己的业务按需申请算力的诉求。 虚拟设备是指按照指定算力在芯片上申请的虚拟加速资源。 参数取值:
使用约束:
|
COMPRESSION_OPTIMIZE_CONF |
压缩优化功能配置文件路径以及文件名,通过该参数使能配置文件中指定的压缩优化特性,从而提升网络性能。例如:/home/test/compression_optimize.cfg。 文件内容配置示例如下: enable_first_layer_quantization:true
|