工具部署架构 基于TF_Adapter的TensorFlow网络模型量化,量化后的模型支持在NPU以及CPU进行推理,其部署架构图如图1所示。本手册仅介绍量化后的模型在NPU推理的场景。 图1 部署架构 用户需要先在Atlas 训练系列产品环境上搭建TensorFlow环境,并安装CANN软件包,然后在该环境上安装昇腾模型压缩工具,并进行模型压缩,生成压缩后的*.pb模型。 用户将压缩后的*.pb模型,借助CANN软件包提供的ATC工具,转换成适配昇腾AI处理器的离线模型。 使用2中的.om离线模型在昇腾AI处理器完成推理业务。 父主题: 概述