选择MindIE Torch作为模型后端

通过MindIE Torch对文本嵌入模型和重排序模型进行编译优化、权重保存的样例如下。MindIE Torch后端当前支持大部分能基于pytorch+torch_npu运行的模型,常见模型列表可参考表1

编译优化步骤依赖于模型运行时的Python库,若报错缺少部分三方库,请自行下载安装(例如:nomic系列模型依赖einops)。