activationType = ACTIVATION_RELU






是高斯分布的累积分布函数

activationType = ACTIVATION_FAST_GELU


跟所输入的参数scale有关,当scale=1时


activationType = ACTIVATION_LOG

对于
a, b为对输入tensor延最后一维进行均分。

dim只可以延最后一维进行均分,必须传入-1。
当前仅支持
x1为输入tensor1
x2为输入tensor2
a,b为对x2延最后一维进行均分


dim只可以延最后一维进行均分,必须传入-1。
activationType = ACTIVATION_SIGMOID


activationType = ACTIVATION_FASTER_GELU_FORWARD
