概述
本章节包含适配后的分布式接口,提供并行计算能力。
API名称  | 
说明  | 
|---|---|
判断HCCL通信后端是否可用,与torch.distributed.is_nccl_available 类似。  | 
|
从初始化完成的集合通信域中获取集合通信域名字。  | 
|
创建一个ProcessGroupHCCL对象并返回。  | 
|
重新构建processgroup集合通信域。  | 
|
参考原生接口torch.distributed.reduce_scatter_tensor功能,torch_npu.distributed.reduce_scatter_tensor_uneven接口新增支持零拷贝和非等长切分功能。  | 
|
参考原生接口torch.distributed.all_gather_into_tensor功能,torch_npu.distributed.all_gather_into_tensor_uneven接口新增支持零拷贝和非等长切分功能。  | 
父主题: Distributed