上传软件包

AMCT的安装用户将Ascend-cann-amct_{software version}_linux-{arch}.tar.gz软件包上传到Linux服务器任意目录下,本示例为上传到$HOME/amct/目录。

执行如下命令解压AMCT软件包:

tar -zxvf Ascend-cann-amct-{software version}_linux-{arch}.tar.gz

获得如下内容:

表1 AMCT软件包解压后内容

一级目录

二级目录

说明

使用场景及注意事项

amct_caffe/

Caffe框架AMCT目录。

  • Atlas A2训练系列产品/Atlas 800I A2推理产品不支持Caffe框架。
  • 使用方法请参见AMCT(Caffe)
  • 需要搭建Caffe环境,量化完的模型,如果要执行推理,则需要借助安装昇腾AI处理器的推理环境。

amct_caffe-{version}-py3-none-linux_{arch}.whl

Caffe框架AMCT安装包。

caffe_patch.tar.gz

Caffe源代码增强包。

amct_tf/

TensorFlow框架AMCT目录。

amct_tensorflow-{version}-py3-none-linux_{arch}.tar.gz

TensorFlow框架AMCT安装包,通过源码编译方式进行安装。

  • amct_tensorflow与amct_tensorflow_ascend软件包不能同时安装
  • 使用方法请参见AMCT(TensorFlow)
  • 需要搭建TensorFlow环境,量化完的模型,如果要执行推理,则需要借助安装昇腾AI处理器的推理环境。

amct_tensorflow_ascend-{version}-py3-none-linux_{arch}.tar.gz

基于TF_Adapter的AMCT安装包,通过源码编译方式进行安装。

  • amct_tensorflow与amct_tensorflow_ascend软件包不能同时安装。
  • 只有Atlas 训练系列产品支持该目录下的特性。
  • 使用方法请参见AMCT(TensorFlow,Ascend)
  • 需要搭建TensorFlow环境,并借助带有NPU设备的在线推理环境,量化完的模型,可以基于昇腾AI处理器完成在线推理业务。

amct_pytorch/

PyTorch框架AMCT目录。

  • 使用方法请参见AMCT(PyTorch)
  • 需要搭建PyTorch环境,量化完的模型,如果要执行推理,则需要借助安装昇腾AI处理器的推理环境。

amct_pytorch-{version}-py3-none-linux_{arch}.tar.gz

PyTorch框架AMCT源码安装包。

amct_onnx/

ONNX模型AMCT目录。

  • 使用方法请参见AMCT(ONNX)
  • 需要搭建ONNX Runtime环境,量化完的模型,如果要执行推理,则需要借助安装昇腾AI处理器的推理环境。

amct_onnx-{version}-py3-none-linux_{arch}.whl

ONNX模型AMCT安装包。

amct_onnx_op.tar.gz

AMCT基于ONNX Runtime的自定义算子包。

amct_ms/

MindSpore框架AMCT目录。

  • 只有Atlas 训练系列产品支持该目录下的特性。
  • 使用方法请参见AMCT(MindSpore)
  • 需要搭建MindSpore环境,并借助带NPU设备的训练环境将MindSpore模型量化后输出为*.air格式模型,只能借助带NPU设备的训练环境,量化后的模型要进行推理,也可以借助该环境完成。

amct_mindspore-{version}-py3-none-linux_{arch}.whl

MindSpore框架AMCT安装包。

conf/

-

-

记录包的安装信息,用户无需关注。

latest_manager/

-

-

安装升级使用的公共脚本,用户无需关注。

third_party/

Ascend-nca-{software version}-linux.{arch}.run

NCA(Neural Compute Agent)软件包。

基于性能的自动量化场景下使用。该版本不支持third_party目录下的相关特性。

其中:{version}表示AMCT具体版本号,{software version}为软件版本号,{arch}表示具体操作系统架构。