开发者跨多个进程执行分布式训练时,首先需要配置参与分布式训练的昇腾AI处理器的资源信息,然后再拉起训练进程。
当前有两种配置资源信息的方式,开发者可以选择其中任一方式,但需要注意两种方式不能混合使用。
此种方式下配置资源信息、拉起训练进程的详细说明可参见训练执行(配置文件方式设置资源信息)。
此种方式下配置资源信息、拉起训练进程的详细说明可参见训练执行(环境变量方式设置资源信息)。