GRU

功能

计算单层GRU

边界

【输入】

3~6个输入

x:一个tensor,数据类型:float16、float32、double

w:一个tensor,数据类型:float16、float32、double

r:一个tensor,数据类型:float16、float32、double

b:(可选)一个tensor,数据类型:float16、float32、double

sequence_lens:(可选)一个tensor,数据类型:int32

initial_h:(可选)一个tensor,数据类型:float16、float32、double

【输出】

2个输出

y:一个tensor,数据类型:float16、float32、double

y_h:一个tensor,数据类型:float16、float32、double

【属性】

ctivation_alpha: list of floats

激活函数使用的可选缩放值,例如LSTM中的(f, g, h)。默认值与相应的ONNX一样,而对于LeakyRelu,默认alpha为0.01。

activation_beta:list of floats

激活函数使用的可选缩放值,例如LSTM中的(f, g, h)。默认值与相应的ONNX一样

activations:list of strings

用于更新、重置和隐藏gates(如果是双向)激活函数列表。激活函数必须是上述指定的激活函数之一

clip:float

Cell clip threshold

direction:string (default is forward)

指定RNN是正向、反向还是双向。必须是正向(默认)、反向或双向之一

hidden_size:int

隐藏层神经元数量

linear_before_reset:int (default is 0)

计算隐藏gates的输出时,在乘以复位门的输出之前应用线性变换

支持的ONNX版本

Opset v8/v9/v10/v11/v12/v13/v14/v15/v16/v17/v18