配置YAML

操作步骤

  1. 将YAML文件上传至管理节点任意目录,并根据实际情况修改文件内容。

    使用弹性训练特性,参考本配置。以a800_vcjob.yaml为例,在一台Atlas 800 训练服务器节点创建单机训练任务,任务使用8个芯片,修改示例如下。
    apiVersion: v1
    kind: ConfigMap
    metadata:
      name: rings-config-mindx-dls-test     # rings-config-后的名字需要与任务名一致
    ...
      labels:
        ring-controller.atlas: ascend-910   # 标识任务使用的芯片的产品类型
    ...
    ---
    apiVersion: batch.volcano.sh/v1alpha1   # 不可修改。必须使用Volcano的API
    kind: Job                               # 目前只支持Job类型
    metadata:
      name: mindx-dls-test                  # 任务名,可自定义
      labels:
        ring-controller.atlas: ascend-910    # 标识任务使用的芯片的产品类型
        fault-scheduling: "grace"        # 开启故障重调度
        elastic-scheduling: "on"          # 开启弹性训练,需添加""号
      annotations:
        minReplicas: "1"                 # 最小副本数
    ...
    spec:
      minAvailable: 1                  # 设置为1
    ...
      maxRetry: 0              #设置为0
    ...
      - name: "default-test"
          template:
            metadata:
    ...
            spec:
    ...
              env:
    ...
              - name: ASCEND_VISIBLE_DEVICES                       # Ascend Docker Runtime会使用该字段
                valueFrom:
                  fieldRef:
                    fieldPath: metadata.annotations['huawei.com/Ascend910']               # 需要和下面resources.requests保持一致
    ...
                resources:  
                  requests:
                    huawei.com/Ascend910: 8          # 需要的NPU芯片个数为8
                  limits:
                    huawei.com/Ascend910: 8          # 目前需要和上面requests保持一致
    ...
                nodeSelector:
                  host-arch: huawei-arm       # 可选值,根据实际情况填写
    ...

  2. 使用弹性训练功能,需要扩展内存,请按注释添加参数。此外还要使用“maxRetry”机制,示例如下。

    ...
              volumeMounts:                             #弹性训练扩容
              - name: shm
               mountPath: /dev/shm
            volumes:
            - name: shm
              emptyDir:
                medium: Memory
                sizeLimit: 16Gi
    ...

  3. 若需要配置CPU、Memory资源,请参见如下示例手动添加“cpu”“memory”参数和对应的参数值,具体数值请根据实际情况配置。

    ...
              resources:  
                requests:
                  huawei.com/Ascend910: 8
                  cpu: 100m           
                  memory: 100Gi       
                limits:
                  huawei.com/Ascend910: 8
                  cpu: 100m
                  memory: 100Gi
    ...

  4. 修改训练脚本、代码的挂载路径。

    从昇腾镜像仓库拉取的基础镜像中不包含训练脚本、代码等文件,训练时通常使用挂载的方式将训练脚本、代码等文件映射到容器内。

              volumeMounts:
              - name: ascend-910-config
                mountPath: /user/serverid/devindex/config
              - name: code
                mountPath: /job/code                     # 容器中训练脚本路径
              - name: data
                mountPath: /job/data                      # 容器中训练数据集路径
              - name: output
                mountPath: /job/output                    # 容器中训练输出路径

  5. 如下所示,YAML中训练命令bash train_start.sh后跟的三个参数依次为容器内训练代码目录、输出目录(其中包括生成日志重定向文件以及TensorFlow框架模型文件)、启动脚本相对代码目录的路径。之后的以“--”开头的参数为训练脚本需要的参数。单机和分布式训练脚本、脚本参数可参考模型脚本来源处的模型说明修改。

    • TensorFlow命令参数
      command:
      - "/bin/bash"
      - "-c"
      - "cd /job/code/scripts;chmod +x train_start.sh;bash train_start.sh /job/code/ /job/output/ tensorflow/resnet_ctl_imagenet_main.py --data_dir=/job/data/imagenet_TF --distribution_strategy=one_device --use_tf_while_loop=true --epochs_between_evals=1 --skip_eval --enable_checkpoint_and_export;"
      ...
    • PyTorch命令参数
      command:
      - "/bin/bash"
      - "-c"
      - "cd /job/code/scripts;chmod +x train_start.sh;bash train_start.sh /job/code/ /job/output/ main.py --data=/job/data/resnet50/imagenet --amp --arch=resnet50 --seed=49 -j=128 --lr=1.6 --dist-backend='hccl' --multiprocessing-distributed --epochs=90 --batch-size=1024 --resume=true;"
      ...
    • 使用MindSpore架构的模型包括resnet50模型和Pangu_alpha模型需要跳过此步骤。

  6. YAML为使用NFS场景,需要指定NFS服务器地址、训练数据集路径、脚本路径和训练输出路径,请根据实际修改。如果不使用NFS请根据K8s相关指导自行修改。

    ...
              volumeMounts:
              - name: ascend-910-config
                mountPath: /user/serverid/devindex/config
              - name: code
                mountPath: /job/code                     # 容器中训练脚本路径
              - name: data
                mountPath: /job/data                      # 容器中训练数据集路径
              - name: output
                mountPath: /job/output                    # 容器中训练输出路径
    ...
            volumes:
    ...
            - name: code
              nfs:
                server: 127.0.0.1        # NFS服务器IP地址
                path: "xxxxxx"           # 配置训练脚本路径
            - name: data
              nfs:
                server: 127.0.0.1
                path: "xxxxxx"           # 配置训练集路径
            - name: output
              nfs:
                server: 127.0.0.1
                path: "xxxxxx"           # 设置脚本相关配置模型保存路径
    ...