计算单层GRU
【输入】
3~6个输入
x:一个tensor,数据类型:float16、float32、double
w:一个tensor,数据类型:float16、float32、double
r:一个tensor,数据类型:float16、float32、double
b:(可选)一个tensor,数据类型:float16、float32、double
sequence_lens:(可选)一个tensor,数据类型:int32
initial_h:(可选)一个tensor,数据类型:float16、float32、double
【输出】
2个输出
y:一个tensor,数据类型:float16、float32、double
y_h:一个tensor,数据类型:float16、float32、double
【属性】
ctivation_alpha: list of floats
激活函数使用的可选缩放值,例如LSTM中的(f, g, h)。默认值与相应的ONNX一样,而对于LeakyRelu,默认alpha为0.01。
activation_beta:list of floats
激活函数使用的可选缩放值,例如LSTM中的(f, g, h)。默认值与相应的ONNX一样
activations:list of strings
用于更新、重置和隐藏gates(如果是双向)激活函数列表。激活函数必须是上述指定的激活函数之一
clip:float
Cell clip threshold
direction:string (default is forward)
指定RNN是正向、反向还是双向。必须是正向(默认)、反向或双向之一
hidden_size:int
隐藏层神经元数量
linear_before_reset:int (default is 0)
计算隐藏gates的输出时,在乘以复位门的输出之前应用线性变换
Opset v8/v9/v10/v11/v12/v13/v14/v15/v16/v17/v18