本章节包含适配后的分布式接口,提供并行计算能力。
API名称 |
说明 |
---|---|
判断HCCL通信后端是否可用,与torch.distributed.is_nccl_available 类似。 |
|
从初始化完成的集合通信域中获取集合通信域名字。 |
|
创建一个ProcessGroupHCCL对象并返回。 |
|
重新构建processgroup集合通信域。 |
|
参考原生接口torch.distributed.reduce_scatter_tensor功能,torch_npu.distributed.reduce_scatter_tensor_uneven接口新增支持零拷贝和非等长切分功能。 |
|
参考原生接口torch.distributed.all_gather_into_tensor功能,torch_npu.distributed.all_gather_into_tensor_uneven接口新增支持零拷贝和非等长切分功能。 |