torch

若API未标明支持情况,则代表该API的支持情况待验证。

API名称

是否支持

限制与说明

torch.SymInt

  

torch.SymFloat

  

torch.SymBool

  

torch.Tag

  

torch.is_tensor

支持fp32

torch.is_storage

  

torch.is_complex

支持fp32

torch.is_conj

  

torch.is_floating_point

支持fp32

torch.is_nonzero

支持fp32

torch.set_default_dtype

  

torch.get_default_dtype

  

torch.set_default_device

  

torch.set_default_tensor_type

不支持传入torch.npu.DtypeTensor类型

torch.numel

  

torch.set_printoptions

  

torch.set_flush_denormal

  

torch.tensor

支持fp32

torch.sparse_coo_tensor

  

torch.sparse_csr_tensor

  

torch.sparse_csc_tensor

  

torch.sparse_bsr_tensor

  

torch.sparse_bsc_tensor

  

torch.asarray

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.as_tensor

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.as_strided

支持fp32

torch.from_numpy

  

torch.from_dlpack

  

torch.frombuffer

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.zeros

  

torch.zeros_like

支持bf16,fp16,fp32,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.ones

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.ones_like

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.arange

支持int64

torch.range

  

torch.linspace

     

torch.logspace

  

torch.eye

  

torch.empty

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.empty_like

支持bf16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.empty_strided

  

torch.full

支持fp32

torch.full_like

支持uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.quantize_per_tensor

  

torch.quantize_per_channel

  

torch.dequantize

     

torch.dequantize

     

torch.complex

  

torch.polar

  

torch.heaviside

  

torch.adjoint

可通过CPU实现

torch.argwhere

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.cat

支持bf16,fp16,fp32,int8,uint8,int16,int32,int64,bool

torch.concat

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64

torch.concatenate

  

torch.conj

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.chunk

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.dsplit

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.column_stack

     

torch.dstack

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64

torch.gather

支持fp32,fp16,int16,int32,int64,bool

torch.hsplit

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.hstack

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64

torch.index_add

支持fp32,fp16,int64,bool

torch.index_copy

  

torch.index_reduce

  

torch.index_select

支持bf16,fp32,fp16,int16,int32,int64,bool

torch.masked_select

支持fp32,fp16,int16,int32,int64,bool

torch.movedim

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.moveaxis

支持torch.int64, torch.float, torch.complex128

torch.narrow

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.narrow_copy

  

torch.nonzero

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.permute

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.reshape

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.row_stack

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64

torch.select

     

torch.scatter

支持int16,int32,int64

torch.diagonal_scatter

支持bf16,fp32,fp16,int16,int32,int64,bool

torch.select_scatter

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.slice_scatter

     

torch.scatter_add

     

torch.scatter_reduce

  

torch.split

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.squeeze

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.stack

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.swapaxes

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.swapdims

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.t

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.take

支持fp32,fp16,int16,int32,int64,bool

torch.take_along_dim

支持fp32

torch.tensor_split

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.tile

  

torch.transpose

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.unbind

     

torch.unsqueeze

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.vsplit

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.vstack

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.where

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

不支持8维度的shape

torch.where

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

不支持8维度的shape

torch.Generator

  

torch.Generator.get_state

  

torch.Generator.initial_seed

  

torch.Generator.manual_seed

  

torch.Generator.seed

  

torch.Generator.set_state

  

torch.seed

  

torch.manual_seed

  

torch.initial_seed

  

torch.get_rng_state

  

torch.set_rng_state

  

torch.bernoulli

支持fp32

torch.multinomial

支持fp32,fp16

torch.normal

支持fp32,fp16

torch.normal

支持fp32,fp16

torch.normal

支持fp32,fp16

torch.normal

支持fp32,fp16

torch.poisson

可以走CPU实现

torch.rand

  

torch.rand_like

支持int8,uint8,int16,int32,int64

torch.randint

  

torch.randint_like

支持fp32,fp16,int64

torch.randn

  

torch.randn_like

支持fp32

torch.randperm

  

torch.quasirandom.SobolEngine

     

torch.quasirandom.SobolEngine.draw

     

torch.quasirandom.SobolEngine.draw_base2

     

torch.quasirandom.SobolEngine.fast_forward

     

torch.quasirandom.SobolEngine.reset

     

torch.save

  

torch.load

     

torch.get_num_threads

  

torch.set_num_threads

  

torch.get_num_interop_threads

  

torch.set_num_interop_threads

  

torch.no_grad

  

torch.enable_grad

  

torch.set_grad_enabled

  

torch.is_grad_enabled

  

torch.inference_mode

  

torch.is_inference_mode_enabled

  

torch.abs

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64

torch.absolute

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64

torch.acos

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.arccos

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.acosh

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.arccosh

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.add

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.addcdiv

支持fp16,fp32,int64,bool

在int64类型不支持三个tensor同时广播

torch.addcmul

支持bf16,fp16,fp32,fp64,int8,int32,int64,uint8,bool

在int8,uint8,int64,fp64类型不支持三个tensor同时广播

torch.angle

支持fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.asin

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.arcsin

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.asinh

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.arcsinh

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.atan

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.arctan

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.atanh

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.arctanh

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.atan2

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.arctan2

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.bitwise_not

支持uint8,int8,int16,int32,int64,bool

torch.bitwise_and

支持uint8,int8,int16,int32,int64,bool

torch.bitwise_or

支持uint8,int8,int16,int32,int64,bool

torch.bitwise_xor

支持uint8,int8,int16,int32,int64,bool

torch.bitwise_left_shift

  

torch.bitwise_right_shift

  

torch.ceil

支持fp32,fp16

torch.clamp

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64

torch.clip

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64

torch.conj_physical

     

torch.copysign

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.cos

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.cosh

支持fp16,fp32,fp64

torch.deg2rad

支持fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.div

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.divide

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.digamma

可以走CPU实现

torch.erf

支持fp32,fp16,int64,bool

torch.erfc

支持fp32,fp16,int64,bool

torch.erfinv

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.exp

支持bf16,fp32,fp16,int64,bool,complex64,complex128

torch.exp2

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.expm1

支持fp32,fp16,int64,bool

torch.fake_quantize_per_channel_affine

  

torch.fake_quantize_per_tensor_affine

  

torch.fix

  

torch.float_power

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex128

torch.floor

支持fp32,fp16

torch.floor_divide

支持fp32,fp16,uint8,int8,int16,int32,int64

torch.fmod

支持fp32,fp16,uint8,int8,int32,int64

torch.frac

     

torch.frexp

  

torch.gradient

支持bf16,fp32,fp16,int8,int16,int32,int64

torch.imag

  

torch.ldexp

支持fp16,fp64,complex64

torch.lerp

支持fp32,fp16

torch.lgamma

可以走CPU实现

torch.log

支持bf16,fp32,fp16,int64,bool,complex64,complex128

torch.log10

支持fp16,fp32,fp64,uint8,int8,int16,int32,int64,bool

torch.log1p

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.log2

支持bf16,fp32,int64,bool,fp16

torch.logaddexp

不支持double数据类型

torch.logaddexp2

不支持double数据类型

torch.logical_and

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.logical_not

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.logical_or

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.logical_xor

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.logit

可以走CPU实现

torch.hypot

  

torch.i0

  

torch.igamma

  

torch.igammac

  

torch.mul

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.multiply

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.mvlgamma

可以走CPU实现

torch.nan_to_num

  

torch.neg

支持bf16,fp32,fp16,int8,int32,int64,complex64,complex128

torch.negative

支持bf16,fp32,fp16,int8,int32,int64,complex64,complex128

torch.nextafter

  

torch.polygamma

  

torch.positive

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,complex64,complex128

torch.pow(input, exponent, *, out=None) ->Tensor

     

torch.pow(self, exponent, *, out=None) ->Tensor

     

torch.quantized_batch_norm

  

torch.quantized_max_pool1d

  

torch.quantized_max_pool2d

  

torch.rad2deg

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.real

支持fp32,fp16,complex64,complex128

torch.reciprocal

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.remainder

支持fp32,fp16,int16,int32,int64

torch.round

支持fp32,fp16

torch.rsqrt

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.sigmoid

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.sign

支持bf16,fp32,fp16,int32,int64,bool

torch.sgn

支持bf16,fp32,fp16,int32,int64,bool,complex64,complex128

torch.signbit

  

torch.sin

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.sinc

  

torch.sinh

支持fp16,fp32,fp64

torch.softmax

  

torch.sqrt

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.square

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64

torch.sub

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64

torch.subtract

     

torch.tan

支持fp16,fp32,fp64

torch.tanh

支持bf16,fp16,fp32,int8,uint8,int16,int32,int64,bool

torch.true_divide

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.trunc

支持fp32,fp16

torch.xlogy

支持fp16,fp32,uint8,int8,int16,int32,int64,bool

torch.argmax

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64

torch.argmax

支持bf16,fp16,fp32,fp64,uint8,int8,int16,int32,int64

torch.argmin

支持fp32,fp16,uint8,int8,int16,int32,int64

torch.amax

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.amin

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.aminmax

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.all

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.all

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.any

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.any

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.max

支持bf16,fp32,fp16,int64,bool

torch.max

支持bf16,fp32,fp16,int64,bool

torch.max

支持bf16,fp32,fp16,int64,bool

torch.min

支持bf16,fp32,fp16,int64,bool

torch.min

支持bf16,fp32,fp16,int64,bool

torch.min

支持bf16,fp32,fp16,int64,bool

torch.dist

支持bf16,fp32,fp16

torch.logsumexp

支持fp32,uint8,int8,int16,int32,int64,bool,fp16

torch.mean

支持bf16,fp32,fp16,complex64,complex128

torch.mean

支持bf16,fp32,fp16,complex64,complex128

torch.nanmean

  

torch.median

支持bf16,fp16,fp32,int8,uint8,int16,int32,int64

torch.median

支持bf16,fp16,fp32,int8,uint8,int16,int32,int64

torch.nanmedian

可以走CPU实现

torch.nanmedian

可以走CPU实现

torch.mode

可以走CPU实现

torch.norm

支持bf16,fp32,fp16,complex128

torch.nansum

可以走CPU实现

torch.nansum

可以走CPU实现

torch.prod

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.prod

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.quantile

     

torch.nanquantile

  

torch.std

支持fp16,fp32

torch.std_mean

  

torch.sum

  

torch.sum

  

torch.unique

支持fp16,fp32,int8,uint8,int16,int32,int64,bool

带dim场景不支持fp16

torch.unique_consecutive

     

torch.var

支持fp16,fp32

torch.var_mean

  

torch.count_nonzero

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.allclose

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.argsort

支持fp32,fp16,uint8,int8,int16,int32,int64

torch.eq

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.equal

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.ge

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.greater_equal

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.gt

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.greater

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.isclose

支持fp32,uint8,int8,int16,int32,int64,bool,fp16

torch.isfinite

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.isin

  

torch.isinf

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.isposinf

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.isneginf

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.isnan

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.isreal

     

torch.kthvalue

支持fp16,fp32和int32

torch.le

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.less_equal

支持fp16,fp32,int32,int8,uint8,fp64,int16,int64

torch.lt

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.less

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.maximum

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.minimum

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.fmax

  

torch.fmin

     

torch.ne

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.not_equal

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.sort

支持fp32,fp16,uint8,int8,int16,int32,int64

torch.topk

支持fp16,fp32,int32,int8,uint8,fp64,int16,int64

不支持sorted=False场景

torch.msort

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64

torch.stft

  

torch.istft

  

torch.bartlett_window

  

torch.blackman_window

  

torch.hamming_window

  

torch.hann_window

  

torch.kaiser_window

  

torch.atleast_1d

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.atleast_2d

支持fp16,fp32,int32,int8,uint8,fp64,int16,int64,bool

torch.atleast_3d

支持fp16,fp32,int32,int8,uint8,fp64,int16,int64,bool

torch.bincount

支持uint8,int8,int16,int32,int64

torch.block_diag

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.broadcast_tensors

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.broadcast_to

支持bf16,fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.broadcast_shapes

  

torch.bucketize

可以走CPU实现

torch.cartesian_prod

     

torch.cdist

     

torch.clone

支持fp16,fp32,int32,int8,uint8,fp64,int16,int64,bool

torch.combinations

支持fp16,fp32,int32,int8,uint8,fp64,int16,int64,bool

torch.corrcoef

     

torch.cov

支持fp32

torch.cross

支持fp32,fp16,uint8,int8,int16,int32,int64,complex64,complex128

两个输入的shape要保持一致

torch.cummax

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.cummin

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.cumprod

     

torch.cumsum

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.diag

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64

torch.diag_embed

     

torch.diagflat

     

torch.diagonal

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.diff

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.einsum

支持bf16,fp16,fp32,int8,uint8,int16,int32,int64,bool

torch.flatten

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.flip

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.fliplr

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.flipud

支持fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.kron

     

torch.rot90

  

torch.gcd

     

torch.histc

支持fp32,fp16

torch.histogram

  

torch.histogramdd

  

torch.meshgrid

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.lcm

  

torch.logcumsumexp

  

torch.ravel

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.renorm

     

torch.repeat_interleave

支持fp32,fp16,int16,int32,int64,bool

torch.repeat_interleave

支持fp32,fp16,int16,int32,int64,bool

torch.roll

支持fp32,fp16,int32,int64,bool

torch.searchsorted

支持fp16,fp32,int32,int64,fp64,int8,uint8,int16

torch.tensordot

支持fp32,fp16

torch.trace

     

torch.tril

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.tril_indices

  

torch.triu

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.triu_indices

  

torch.unflatten

  

torch.vander

  

torch.view_as_real

支持complex64

torch.view_as_complex

  

torch.resolve_conj

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64,bool

torch.resolve_neg

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64,bool,complex64,complex128

torch.addbmm

支持fp32,fp16

torch.addmm

支持fp32,fp16

torch.addmv

支持fp32,fp16,uint8,int8,int16,int32,int64

torch.addr

支持fp32,fp16,uint8,int8,int16,int32,int64,bool

torch.baddbmm

支持fp32,fp16

torch.bmm

支持fp32,fp16

torch.chain_matmul

     

torch.cholesky

  

torch.cholesky_inverse

  

torch.cholesky_solve

  

torch.dot

支持fp32,fp16

torch.geqrf

  

torch.ger

     

torch.inner

     

torch.inverse

  

torch.det

     

torch.logdet

  

torch.slogdet

支持fp32,complex64,complex128

torch.lu

  

torch.lu_solve

  

torch.lu_unpack

  

torch.matmul

支持fp32,fp16

torch.matrix_power

  

torch.matrix_exp

  

torch.mm

支持fp32,fp16

torch.mv

     

torch.orgqr

  

torch.ormqr

  

torch.outer

     

torch.pinverse

  

torch.qr

     

torch.svd

  

torch.svd_lowrank

可以走CPU实现

torch.pca_lowrank

可以走CPU实现

torch.lobpcg

  

torch.trapz

     

torch.trapezoid

支持bf16,fp32,fp16,uint8,int8,int16,int32,int64

torch.cumulative_trapezoid

支持fp16,fp32,fp64,int8,uint8,int16,int32,int64

torch.triangular_solve

  

torch.vdot

可以走CPU实现

torch._foreach_abs

  

torch._foreach_abs_

  

torch._foreach_acos

  

torch._foreach_acos_

  

torch._foreach_asin

  

torch._foreach_asin_

  

torch._foreach_atan

  

torch._foreach_atan_

  

torch._foreach_ceil

  

torch._foreach_ceil_

  

torch._foreach_cos

  

torch._foreach_cos_

  

torch._foreach_cosh

  

torch._foreach_cosh_

  

torch._foreach_erf

  

torch._foreach_erf_

  

torch._foreach_erfc

  

torch._foreach_erfc_

  

torch._foreach_exp

  

torch._foreach_exp_

  

torch._foreach_expm1

  

torch._foreach_expm1_

  

torch._foreach_floor

  

torch._foreach_floor_

  

torch._foreach_log

  

torch._foreach_log_

  

torch._foreach_log10

  

torch._foreach_log10_

  

torch._foreach_log1p

  

torch._foreach_log1p_

  

torch._foreach_log2

  

torch._foreach_log2_

  

torch._foreach_neg

  

torch._foreach_neg_

  

torch._foreach_tan

  

torch._foreach_tan_

  

torch._foreach_sin

  

torch._foreach_sin_

  

torch._foreach_sinh

  

torch._foreach_sinh_

  

torch._foreach_round

  

torch._foreach_round_

  

torch._foreach_sqrt

  

torch._foreach_sqrt_

  

torch._foreach_lgamma

  

torch._foreach_lgamma_

  

torch._foreach_frac

  

torch._foreach_frac_

  

torch._foreach_reciprocal

  

torch._foreach_reciprocal_

  

torch._foreach_sigmoid

  

torch._foreach_sigmoid_

  

torch._foreach_trunc

  

torch._foreach_trunc_

  

torch._foreach_zero_

  

torch.compiled_with_cxx11_abi

  

torch.result_type

支持fp32

torch.can_cast

  

torch.promote_types

  

torch.use_deterministic_algorithms

  

torch.are_deterministic_algorithms_enabled

  

torch.is_deterministic_algorithms_warn_only_enabled

  

torch.set_deterministic_debug_mode

  

torch.get_deterministic_debug_mode

  

torch.set_float32_matmul_precision

  

torch.get_float32_matmul_precision

  

torch.set_warn_always

  

torch.is_warn_always_enabled

  

torch.vmap

  

torch._assert

  

torch.sym_float

  

torch.sym_int

  

torch.sym_max

  

torch.sym_min

  

torch.sym_not

  

torch.compile

  

torch.autograd.set_multithreading_enabled