aclgrphBuildModel支持的配置参数
基础功能
内存管理
|
参数 |
说明 |
|---|---|
|
EXEC_DISABLE_REUSED_MEMORY |
内存复用开关。 内存复用是指按照生命周期和内存大小,把不冲突的内存重复使用,来降低网络内存占用。 参数取值:
配置示例: {ge::ir_option::EXEC_DISABLE_REUSED_MEMORY, "0"}
产品支持情况: |
|
EXTERNAL_WEIGHT |
生成om模型文件时,是否将原始网络中的Const/Constant节点的权重外置,同时将节点类型转换为FileConstant类型。 离线场景,如果模型权重较大且环境对om大小有限制,建议开启外置权重将权重单独保存,来减小om大小。 参数取值:
配置示例: {ge::ir_option::EXTERNAL_WEIGHT, "1"}
使用约束:
产品支持情况: |
动态shape
算子编译与图编译
大模型分布式编译切分
|
参数 |
说明 |
||||
|---|---|---|---|---|---|
|
DISTRIBUTED_CLUSTER_BUILD |
大模型分布式编译切分场景使用。 大模型分布式编译切分开关,使能该参数后,生成的离线模型将用于分布式部署。“1”表示使能,空或其他值表示未使能。 配置示例: {ge::ir_option::DISTRIBUTED_CLUSTER_BUILD, "1"}
产品支持情况: |
||||
|
ENABLE_GRAPH_PARALLEL |
大模型分布式编译切分场景使用。 是否对原始模型进行自动切分。“1”表示开启自动切分,空或其他值表示不开启。 DISTRIBUTED_CLUSTER_BUILD参数开启分布式编译后,才支持开启自动切分功能,原始模型会按照GRAPH_PARALLEL_OPTION_PATH文件中的要求进行自动切分。 配置示例: {ge::ir_option::ENABLE_GRAPH_PARALLEL, "1"}
产品支持情况: |
||||
|
GRAPH_PARALLEL_OPTION_PATH |
大模型分布式编译切分场景使用。 对原始大模型进行切分时,指定算法切分策略配置文件路径和文件名。 DISTRIBUTED_CLUSTER_BUILD参数开启分布式编译,且ENABLE_GRAPH_PARALLEL参数开启切分功能后,才支持配置切分策略配置文件路径。 配置示例: {ge::ir_option::GRAPH_PARALLEL_OPTION_PATH, "./parallel_option.json"}
指定的配置文件必须为JSON格式,示例如下:
参数解释如下:
产品支持情况: |
||||
|
MODEL_RELATION_CONFIG |
大模型分布式编译切分场景使用。 表达多个切片模型间的数据关联和分布式通信组关系的配置文件及路径。该参数适用于原始模型为切片模型,且切片模型内含通信算子的场景。 该参数在开启分布式编译参数DISTRIBUTED_CLUSTER_BUILD后才生效。 配置示例: {ge::ir_option::MODEL_RELATION_CONFIG, "./model_relation.json"}
配置文件必须为JSON格式,示例如下: {
"deploy_config" :[ //必选,部署模型与目标部署节点的映射关系
{
"submodel_name":"submodel1.air", // 前端切分后的文件名称,要和前端切分后的Graph name名称保持一致
"deploy_device_id_list":"0:0:0" // 该模型要部署的目标设备cluster:0 node:0 item:0
},
{
"submodel_name":"submodel2.air",
"deploy_device_id_list":"0:0:1"
}
],
"model_name_to_instance_id":[ // 必选
{
"submodel_name":"submodel1.air", // 模型对应的id,文件中由用户指定,不同文件对应不同id值即可
"model_instance_id":0
},
{
"submodel_name":"submodel2.air",
"model_instance_id":1
}
],
"comm_group":[{ // 非必选,若前端切分的模型包含通信算子,此处应是切分后模型通信算子的通信域相关信息
"group_name":"tp_group_name_0", // 前端切分模型通信算子的子通信域
"group_rank_list":"[0,1]" // 前端切分模型通信算子的子rank列表
}],
"rank_table":[
{
"rank_id":0, // rankid与模型id的映射关系
"model_instance_id":0
},
{
"rank_id":1,
"model_instance_id":1
}
]
}
产品支持情况: |
功能调试
精度调优
精度比对
性能调优
AOE
|
参数 |
说明 |
|---|---|
|
MDL_BANK_PATH |
加载子图调优后自定义知识库的路径。 该参数需要与aclgrphBuildInitialize支持的配置参数中的BUFFER_OPTIMIZE参数配合使用,仅在数据缓存优化开关打开的情况下生效,通过利用高速缓存暂存数据的方式,达到提升性能的目的。 参数值:模型调优后自定义知识库路径。 参数值格式:支持大小写字母(a-z,A-Z)、数字(0-9)、下划线(_)、中划线(-)、句点(.)。 参数默认值:$HOME/Ascend/latest/data/aoe/custom/graph/<soc_version> 配置示例: {ge::ir_option::MDL_BANK_PATH, "$HOME/custom_module_path"}
使用约束: 加载子图调优后自定义知识库路径优先级:MDL_BANK_PATH参数加载路径>TUNE_BANK_PATH环境变量设置路径>默认子图调优后自定义知识库路径。
产品支持情况: |
|
OP_BANK_PATH |
算子调优后自定义知识库路径。 参数值格式:支持大小写字母(a-z,A-Z)、数字(0-9)、下划线(_)、中划线(-)、句点(.)。 参数默认值:${HOME}/Ascend/latest/data/aoe/custom/op 配置示例: {ge::ir_option::OP_BANK_PATH, "$HOME/custom_tune_path"}
使用约束: 加载算子调优后自定义知识库路径优先级:TUNE_BANK_PATH环境变量设置路径>OP_BANK_PATH参数加载路径>默认算子调优后自定义知识库路径。
产品支持情况: |
试验参数
后续版本废弃配置
|
参数 |
说明 |
|---|---|
|
INPUT_SHAPE_RANGE |
该参数已废弃,请勿使用。若涉及指定模型输入数据的shape范围,请使用INPUT_SHAPE参数。 指定模型输入数据的shape range。该功能不能与DYNAMIC_BATCH_SIZE、DYNAMIC_IMAGE_SIZE、DYNAMIC_DIMS同时使用。
产品支持情况: |
|
SHAPE_GENERALIZED_BUILD_MODE |
图编译时Shape的编译方式。该参数在后续版本废弃、新开发功能请不要使用该参数。
产品支持情况: |