torch.backends

若API“是否支持”“是”“限制与说明”“-”,说明此API和原生API支持度保持一致。

API名称

NPU形式名称

是否支持

限制与说明

torch.backends.cpu.get_cpu_capability

-

-

torch.backends.cuda.is_built

-

支持fp32

torch.backends.cuda.matmul.allow_tf32

-

支持fp32

torch.backends.cuda.cufft_plan_cache

torch.npu.backends.fft_plan_cache

-

torch.backends.cuda.cufft_plan_cache.size

torch.npu.backends.fft_plan_cache.size

-

torch.backends.cuda.cufft_plan_cache.max_size

torch.npu.backends.fft_plan_cache.max_size

输入范围为1-99

torch.backends.cuda.cufft_plan_cache.clear

torch.npu.backends.fft_plan_cache.clear()

-

torch.backends.cuda.preferred_linalg_library

-

-

torch.backends.cuda.flash_sdp_enabled

-

-

torch.backends.cuda.enable_mem_efficient_sdp

-

-

torch.backends.cuda.mem_efficient_sdp_enabled

-

-

torch.backends.cuda.enable_flash_sdp

-

-

torch.backends.cuda.math_sdp_enabled

-

-

torch.backends.cuda.enable_math_sdp

-

-

torch.backends.cuda.sdp_kernel

-

-

torch.backends.cudnn.is_available

-

支持fp32

torch.backends.cudnn.enabled

-

支持fp32

torch.backends.cudnn.allow_tf32

-

支持fp32

torch.backends.cudnn.deterministic

-

-

torch.backends.cudnn.benchmark

-

支持fp32

torch.backends.cudnn.benchmark_limit

-

-

torch.backends.mps.is_available

-

-

torch.backends.mps.is_built

-

-

torch.backends.mkl.is_available

-

-

torch.backends.mkl.verbose

-

-

torch.backends.mkldnn.is_available

-

Atlas 训练系列产品:是

Atlas A2 训练系列产品:是

Atlas A3 训练系列产品:否

-

torch.backends.mkldnn.verbose

-

-

torch.backends.openmp.is_available

-

支持fp32

torch.backends.opt_einsum.is_available

-

支持fp32

torch.backends.opt_einsum.get_opt_einsum

-

支持fp32

torch.backends.opt_einsum.enabled

-

-

torch.backends.opt_einsum.strategy

-

-