Ftrl

自定义Ftrl优化器。

函数原型

1
def create_hash_optimizer(learning_rate, use_locking=False, name="Ftrl", **kwargs)

参数说明

参数名称

参数说明

参数类型

必选/可选

默认值

取值范围

learning_rate

学习率。

float/tf.Tensor

必选

[0.0, 10.0]

use_locking

优化器中防止对变量并发更新。

bool

可选

False

  • True
  • False

name

优化器名称。

string

可选

Ftrl

优化器名称长度范围:[1, 200]

**kwargs参数说明

参数名称

参数说明

参数类型

必选/可选

默认值

取值范围

learning_rate_power

控制训练期间学习率的下降。

float

可选

-0.5

[-2147483647.0, 0.0]

initial_accumulator_value

累积器的初始值。

float

可选

0.1

(0.0, 1.0]

l1_regularization_strength

L1正则化惩罚。

float

可选

0.0

[0.0, 10000.0]

l2_regularization_strength

L2正则化惩罚。

float

可选

0.0

[0.0, 10000.0]

accum_name

保持梯度平方累加器的变量的后缀。

string

可选

None

长度范围:[1, 255]

linear_name

保持线性梯度累加器的变量的后缀。

string

可选

None

长度范围:[1, 255]

l2_shrinkage_regularization_strength

L2正则化幅度惩罚。

float

可选

0.0

[0.0, 10000.0]

如果通过kwargs传递其他未说明参数,则Rec SDK内部不会使用到该参数。

返回值说明

CustomizedFtrl(自定义Ftrl优化器)的一个实例对象。

使用示例

1
2
from mx_rec.optimizers.ftrl import create_hash_optimizer
hashtable_optimizer = create_hash_optimizer(0.001)