MindIE使用场景 对于大模型服务化部署场景,当前版本仅支持模型列表中的模型。 场景 涉及组件 具体步骤 链接 大模型服务化部署 MindIE Service 环境准备:部署Kubernetes、MindX DL。(仅集群场景使用)部署MindIE MS。(仅集群场景使用)部署MindIE Server。 启动服务。服务调用:使用MindIE Server推理服务。使用MindIE Client发送请求(包括模型推理、请求管理和服务状态查询,用户调用接口即可实现与MindIE Server通信)。使用MindIE Benchmark工具测试推理性能和精度。 性能调优。 环境准备:部署Kubernetes、MindX DL部署MindIE MS部署MindIE Server 启动服务服务调用:MindIE Server使用指导MindIE Client客户端使用说明MindIE Benchmark精度、性能测试工具使用指导 性能调优指南 大模型推理迁移流程 MindIE LLM 配置MindIE LLM。获取模型、权重。权重转换。(可选)权重量化。(可选)推理。 配置MindIE LLMATB Models使用权重量化 传统模型推理迁移流程 MindIE TorchMindIE RT 导入mindietorch框架。模型导出。模型编译。模型推理。资源释放。 模型迁移快速入门