torch.amp

若API“是否支持”“是”“限制与说明”“-”,说明此API和原生API支持度保持一致。

API名称

NPU形式名称

是否支持

限制与说明

torch.autocast

torch.autocast

-

torch.cuda.amp.autocast

torch_npu.npu.amp.autocast

-

torch.cuda.amp.custom_fwd

torch_npu.npu.amp.custom_fwd

-

torch.cuda.amp.custom_bwd

torch_npu.npu.amp.custom_bwd

-

torch.cpu.amp.autocast

torch.cpu.amp.autocast

-

torch.cuda.amp.GradScaler

torch_npu.npu.amp.GradScaler

-

torch.cuda.amp.GradScaler.get_backoff_factor

torch_npu.npu.amp.GradScaler.get_backoff_factor

-

torch.cuda.amp.GradScaler.get_growth_factor

torch_npu.npu.amp.GradScaler.get_growth_factor

-

torch.cuda.amp.GradScaler.get_growth_interval

torch_npu.npu.amp.GradScaler.get_growth_interval

-

torch.cuda.amp.GradScaler.get_scale

torch_npu.npu.amp.GradScaler.get_scale

-

torch.cuda.amp.GradScaler.is_enabled

torch_npu.npu.amp.GradScaler.is_enabled

-

torch.cuda.amp.GradScaler.load_state_dict

torch_npu.npu.amp.GradScaler.load_state_dict

-

torch.cuda.amp.GradScaler.scale

torch_npu.npu.amp.GradScaler.scale

-

torch.cuda.amp.GradScaler.set_backoff_factor

torch_npu.npu.amp.GradScaler.set_backoff_factor

-

torch.cuda.amp.GradScaler.set_growth_factor

torch_npu.npu.amp.GradScaler.set_growth_factor

-

torch.cuda.amp.GradScaler.set_growth_interval

torch_npu.npu.amp.GradScaler.set_growth_interval

-

torch.cuda.amp.GradScaler.state_dict

torch_npu.npu.amp.GradScaler.state_dict

-

torch.cuda.amp.GradScaler.step

torch_npu.npu.amp.GradScaler.step

-

torch.cuda.amp.GradScaler.unscale_

torch_npu.npu.amp.GradScaler.unscale_

-

torch.cuda.amp.GradScaler.update

torch_npu.npu.amp.GradScaler.update

-