#用于设置python3.7.5库文件路径 export LD_LIBRARY_PATH=/usr/local/python3.7.5/lib:$LD_LIBRARY_PATH #如果用户环境存在多个python3版本,则指定使用python3.7.5版本 export PATH=/usr/local/python3.7.5/bin:$PATH
Python3.7.5安装路径请根据实际情况进行替换,您也可以将以上命令写入~/.bashrc文件中,然后执行source ~/.bashrc命令使其立即生效。
AutoML工具推荐使用的noah_vega、evaluate_service包为第三方开源软件,用户可根据所在组织的安全要求配置安装,建议关注该软件在官网上披露的安全漏洞并及时更新到最新版本以减少安全风险。
请参考MindSpore官网安装MindSpore框架。
pip3 install --user torchvision==0.6.0
python3 setup.py install
pip3 install --user thop
请参考《CANN 软件安装指南》安装tfplugin框架插件包和TensorFlow。
请注意CANN版本与MindSpore、PyTorch和TensorFlow的版本配套关系。
source {CANN包安装路径}/ascend-toolkit/set_env.sh source {CANN包安装路径}/tfplugin/set_env.sh #安装tfplugin时需要配置 #以下为单卡训练时的配置,请根据实际环境和需求配置 export DEVICE_ID=0 #单卡训练使用的device_id #以下6项为多卡训练时的配置,请根据实际环境和需求改动 export RANK_ID=0 #指定调用卡的逻辑ID export RANK_SIZE=8 #指定调用卡的数量 export RANK_TABLE_FILE=多卡环境组网信息json文件所在路径 #从多卡环境组网信息json文件中选择要使用的device_id export NPU_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 #执行多卡任务时需要使用的device_id export DEVICE_ID=0 #执行多卡训练任务时单卡阶段指定使用的device_id export TF_CPP_MIN_LOG_LEVEL=3 #该项可控制TF框架本身日志级别的打印,0-DEBUG,1-INFO,2-WARNING,3-ERROR
source {CANN包安装路径}/ascend-toolkit/set_env.sh export install_path={CANN包安装路径}/ascend-toolkit/latest export DDK_PATH=${install_path} #评估服务编译时使用 export NPU_HOST_LIB=${install_path}/{arch-os}/devlib #评估服务编译时使用
推理工具中,-t参数为指定推理服务器的芯片型号,默认值Ascend310。若不使用该参数,默认在Atlas 200/300/500 推理产品上启动推理服务,参数取值如下。
其中,*根据芯片性能提升等级、芯片核数使用等级等因素会有不同的取值。请参考《CANN Ascend-DMI工具使用指导》的“Ascend-DMI工具使用>设备实时状态查询”查询芯片详细信息。