activationType = ACTIVATION_RELU
是高斯分布的累积分布函数
activationType = ACTIVATION_FAST_GELU
跟所输入的参数scale有关,当scale=1时
activationType = ACTIVATION_LOG
对于
a, b为对输入tensor延最后一维进行均分。
dim只可以延最后一维进行均分,必须传入-1。
当前仅支持
x1为输入tensor1
x2为输入tensor2
a,b为对x2延最后一维进行均分
dim只可以延最后一维进行均分,必须传入-1。
activationType = ACTIVATION_SIGMOID
activationType = ACTIVATION_FASTER_GELU_FORWARD