为MindIE Service生成RankTable

Atlas 800I A2 推理服务器场景下,MindCluster支持用户通过acjob推理任务的方式进行MindIE Service的容器化部署。本章节只指导用户完成yaml的配置及RankTable的生成。了解MindIE Service的详细部署流程请参见MindIE Service开发指南

实现原理

各步骤说明如下:
  1. 集群调度组件定期上报节点和芯片信息;kubelet上报节点芯片数量到节点对象(node)中。
    • Ascend Device Plugin上报芯片内存和拓扑信息。

      对于包含片上内存的芯片,Ascend Device Plugin启动时上报芯片内存情况,见node-label说明;上报整卡信息,将芯片的物理ID上报到device-info-cm中;可调度的芯片总数量(allocatable)、已使用的芯片数量(allocated)和芯片的基础信息(device ip和super_device_ip)上报到node中,用于整卡调度。

    • NodeD定期上报节点健康状态和节点硬件故障信息到node-info-cm中。
  2. ClusterD读取device-info-cmnode-info-cm中信息后,将信息写入cluster-info-cm
  3. 用户通过kubectl或者其他深度学习平台下发不使用NPU卡的ms_controller、ms_coordinator以及数个使用NPU卡的ms_server任务。
  4. Ascend Operator为任务创建相应的podGroup。关于podGroup的详细说明,可以参考开源Volcano官方文档
  5. Ascend Operator为任务创建相应的Pod,并注入MindIE Server服务启动所需的环境变量。关于环境变量的详细说明请参见表2 Ascend Operator注入的训练环境变量
  6. 对于ms_controller和ms_coordinator任务,volcano-scheduler根据节点内存、CPU及标签、亲和性选择合适节点。对于ms_server任务volcano-scheduler还会参考芯片拓扑信息为其选择合适节点,并在Pod的annotation上写入选择的芯片信息以及节点硬件信息。
  7. kubelet创建容器时,对于ms_controller和ms_coordinator任务,调用Ascend Device Plugin挂载芯片,Ascend Device Plugin或volcano-scheduler在Pod的annotation上写入芯片和节点硬件信息。Ascend Docker Runtime协助挂载相应资源。
  8. Ascend Operator读取每个ms_server任务Pod的annotation信息,生成各自的hccl.json,以ConfigMap形式存储在etcd中。
  9. ClusterD侦听ms_controller、ms_coordinator任务Pod信息以及各个hccl.json对应ConfigMap的变化,实时生成global-ranktable.json
  10. ms_controller启动后,与ClusterD建立通信,通过gRPC接口订阅global-ranktable的变化。

yaml配置说明

类型

硬件型号

yaml名称

获取链接

ms_controller

Atlas 800I A2 推理服务器

controller.yaml

获取yaml

ms_coordinator

Atlas 800I A2 推理服务器

coordinator.yaml

获取yaml

mindie_server

Atlas 800I A2 推理服务器

server.yaml

获取yaml

apiVersion: mindxdl.gitee.com/v1
kind: AscendJob
metadata:
  name: mindie-ms-test-controller
  namespace: mindie
  labels:
    framework: pytorch          
    app: mindie-ms-controller   # do not modify
    jobID: mindie-ms-test       # uid of infer job, modify it according to your job
    ring-controller.atlas: ascend-910b
spec:
  schedulerName: volcano   # work when enableGangScheduling is true
  runPolicy:
    schedulingPolicy:      # work when enableGangScheduling is true
      minAvailable: 1      # equal to Master.replicas
      queue: default
  successPolicy: AllWorkers
  replicaSpecs:
    Master:
      replicas: 1
      restartPolicy: Always
      template:
        metadata:
          ...
apiVersion: v1
kind: ConfigMap
metadata:
  name: rings-config-mindie-server-0  # The name must be the same as the name attribute of the following AscendJob. The prefix rings-config- cannot be modified.
  namespace: mindie
  labels:
    jobID: mindie-ms-test
    ring-controller.atlas: ascend-910b
    mx-consumer-cim: "true"
data:
  hccl.json: |
    {
        "status":"initializing"
    }
---
apiVersion: mindxdl.gitee.com/v1
kind: AscendJob
metadata:
  name: mindie-server-0
  namespace: mindie
  labels:
    framework: pytorch        
    app: mindie-ms-server        # do not modify
    jobID: mindie-ms-test        # uid of infer job, modify it according to your job
    ring-controller.atlas: ascend-910b
    fault-scheduling: force
spec:
  schedulerName: volcano   # work when enableGangScheduling is true
  runPolicy:
    schedulingPolicy:      # work when enableGangScheduling is true
      minAvailable: 2      # should equal to Master.replicas + Worker.replicas
      queue: default
  successPolicy: AllWorkers
  replicaSpecs:
    Master: