如何确定原始框架网络模型中的算子与昇腾AI处理器支持的算子的对应关系
问题现象描述
用户使用精度比对工具或者性能比对工具进行算子精度或者性能分析时,若发现某些算子精度或者性能有问题,可能会考虑使用ATC工具中的某些参数调整算子的计算精度后,重新进行模型转换然后推理,比如通过--modify_mixlist参数将有问题的算子配置为黑名单等,该场景下,ATC中的参数要求配置的必须为基于Ascend IR定义的算子的OpType。
那如何获取此类算子的OpType?或者如何通过原始框架网络模型中的算子,来获取我们昇腾AI处理器对应支持的算子的OpType呢?
原因分析
发现某些算子精度或者性能有问题,需要对此类算子进行精度调整时,不清楚该类算子对应的Ascend IR算子是什么。
父主题: FAQ