GRU
功能
计算单层GRU。
输入
3~6个输入:
x:一个tensor,数据类型:float16。
w:一个tensor,数据类型:float16。
r:一个tensor,数据类型:float16。
b:(可选)一个tensor,数据类型:float16。
sequence_lens:(可选)一个tensor,数据类型:int32。
initial_h:(可选)一个tensor,数据类型:float16。
输出
两个输出:
y:一个tensor,数据类型:float16。
y_h:一个tensor,数据类型:float16。
属性
activation_alpha: list of floats,激活函数使用的可选缩放值,例如LSTM中的(f, g, h)。默认值与相应的ONNX一样,而对于LeakyRelu,默认alpha为0.01。
activation_beta:list of floats,激活函数使用的可选缩放值,例如LSTM中的(f, g, h)。默认值与相应的ONNX一样。
activations:list of strings,用于更新、重置和隐藏gates(如果是双向)激活函数列表。激活函数必须是上述指定的激活函数之一。
clip:float,单元clip阈值。
direction:string (default is forward),指定RNN是正向、反向还是双向。必须是正向(默认)、反向或双向之一。
hidden_size:int,隐藏层神经元数量。
linear_before_reset:int (default is 0),计算隐藏gates的输出时,在乘以复位门的输出之前应用线性变换。
支持的ONNX版本
Opset v8/v9/v10/v11/v12/v13/v14/v15/v16/v17/v18
父主题: 支持ONNX算子清单