将自定义算子安装包custom_opp_Linux_Arch.run部署到昇腾AI处理器所在硬件环境的算子库中,为后续算子在网络中运行构造必要条件。
请在Deploy Remotely > Deployment选择配置项,配置Deployment的方法请参见Deployment。
MindStudio使用Host侧的运行用户在Host侧进行算子部署,进行算子部署执行前,需要在Host侧进行如下环境变量的配置。
可以在Environment Variables中输入ASCEND_OPP_PATH=/home/xxx/Ascend/ascend-toolkit/latest/opp。
/home/xxx/Ascend/ascend-toolkit/latest为OPP组件(算子库)的安装路径,请根据实际情况配置。
也可以单击文本框后的图标,在弹出的对话框中填写。
在“Operator Package”中选择指定的算子库OPP包目录。
Host侧自定义算子部署完成后目录结构示例如下所示:
├── opp //算子库目录 │ ├── vendors //自定义算子所在目录 │ ├── config.ini // 自定义算子优先级配置文件 │ ├── vendor_name1 // 存储对应厂商部署的自定义算子,此名字为编译自定义算子安装包时配置的vendor_name,若未配置,默认值为customize │ ├── op_impl │ ├── cpu │ ├── aicpu_kernel/ │ ├── vendor_name1_impl //自定义算子实现代码文件 │ ├── libcust_aicpu_kernels.so │ ├── config │ ├── cust_aicpu_kernel.json //自定义算子信息库文件 │ ├── vector_core //此目录预留,无需关注 │ ├── framework │ ├── caffe //存放Caffe框架的自定义算子插件库 │ ├── onnx //存放ONNX框架的自定义算子插件库 │ ├── tensorflow //存放TensorFlow框架的自定义算子插件库 │ ├── libcust_tf_parsers.so │ ├── op_proto │ ├── libcust_op_proto.so //自定义算子原型库文件