昇腾社区首页
中文
注册

beta)torch_npu.distributed.reduce_scatter_tensor_uneven

接口原型

torch_npu.distributed.reduce_scatter_tensor_uneven(output, input, input_split_sizes =None, op=dist.ReduceOp.SUM, group=None, async_op=False) -> torch.distributed.distributed_c10d.Work

功能描述

参考原生接口torch.distributed.reduce_scatter_tensor功能,torch_npu.distributed.reduce_scatter_tensor_uneven接口新增支持零拷贝和非等长切分功能。

参数说明

  • “output”(torch.Tensor):输出Tensor,用于接收计算数据。
  • “input”(torch.Tensor):输入Tensor,用于提供计算数据。
  • “input_split_sizes”(ListInt):输入tensor的0维分割数组,默认值None;元素个数需要与当前调用的group的size一致;元素之和需要与input的0维大小一致。
  • “op”(torch._C._distributed_c10d.ReduceOp.RedOpType):reduce算子,用于控制计算逻辑,默认值dist.ReduceOp.SUM。
  • “group”(torch.distributed.distributed_c10d.ProcessGroup):分布式进程组,默认值None。
  • “async_op”(bool):是否异步调用,默认值False。

输入说明

input的shape为所有卡上output的shape拼接大小。

输出说明

output的shape无特殊约束。

异常说明

  • input_split_sizes元素之和与input的0维不一致时报错:RuntimeError: Split sizes dosen't match total dim 0 size。
  • input_split_sizes元素个数与group的size不一致时报错:RuntimeError: Number of tensor splits not equal to group size。

约束说明

此接口仅可在单机场景下使用。

input_split_sizes元素之和等于input的0维;input_split_sizes元素个数等于group的size。

支持的型号

  • Atlas A2 训练系列产品/Atlas 800I A2 推理产品
  • Atlas 推理系列产品

调用示例

创建以下文件test.py并保存。

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
import os
import torch
import torch_npu
import torch.distributed as dist
dist.init_process_group(backend="hccl")
rank = int(os.getenv('LOCAL_RANK'))
torch.npu.set_device(rank)
input_split_sizes = [2, 3]
input_tensor = torch.ones(sum(input_split_sizes), dtype=torch.int32).npu()
output_tensor = torch.zeros(input_split_sizes[rank], dtype=torch.int32).npu()
torch_npu.distributed.reduce_scatter_tensor_uneven(
    output_tensor,
    input_tensor,
    input_split_sizes=input_split_sizes,
    async_op=False
)

执行如下命令。

torchrun --nproc-per-node=2 test.py