将自定义算子安装包custom_opp_Linux_Arch.run部署到昇腾AI处理器所在硬件环境的算子库中,为后续算子在网络中运行构造必要条件。
请在“Deployment”的方法请参见Deployment。
选择配置项,配置MindStudio使用Host侧的运行用户在Host侧进行算子部署,进行算子部署执行前,需要在Host侧进行如下环境变量的配置。
可以在“Environment Variables”中直接输入ASCEND_OPP_PATH=Ascend-cann-toolkit安装目录/ascend-toolkit/latest/opp。
Ascend-cann-toolkit安装目录/ascend-toolkit/latest为OPP组件(算子库)的安装路径,请根据实际情况配置。
也可以单击文本框后的图标,在弹出的对话框中填写。
在“Operator Package”中选择指定的算子库OPP包目录。
Host侧自定义算子部署完成后目录结构示例如下所示:
├── opp //算子库目录 │ ├── vendors //自定义算子所在目录 │ ├── config.ini // 自定义算子优先级配置文件 │ ├── vendor_name1 // 存储对应厂商部署的自定义算子,此名字为编译自定义算子安装包时配置的vendor_name,若未配置,默认值为customize │ ├── op_impl │ ├── ai_core │ ├── tbe │ ├── config │ ├── aic_ops_info.json //自定义算子信息库文件 │ ├── vendor_name1_impl //自定义算子实现代码文件 │ ├── add.py │ ├── vector_core //此目录预留,无需关注 │ ├── framework │ ├── caffe //存放Caffe框架的自定义算子插件库 │ ├── onnx //存放ONNX框架的自定义算子插件库 │ ├── tensorflow //存放TensorFlow框架的自定义算子插件库 │ ├── libcust_tf_parsers.so │ ├── op_proto │ ├── libcust_op_proto.so //自定义算子原型库文件