自定义Ftrl优化器。
1 | def create_hash_optimizer(learning_rate, use_locking=False, name="Ftrl", **kwargs) |
参数名称 |
参数说明 |
参数类型 |
必选/可选 |
默认值 |
取值范围 |
---|---|---|---|---|---|
learning_rate |
学习率。 |
float/tf.Tensor |
必选 |
无 |
[0.0, 10.0] |
use_locking |
优化器中防止对变量并发更新。 |
bool |
可选 |
False |
|
name |
优化器名称。 |
string |
可选 |
Ftrl |
优化器名称长度范围:[1, 200] |
参数名称 |
参数说明 |
参数类型 |
必选/可选 |
默认值 |
取值范围 |
---|---|---|---|---|---|
learning_rate_power |
控制训练期间学习率的下降。 |
float |
可选 |
-0.5 |
[-2147483647.0, 0.0] |
initial_accumulator_value |
累积器的初始值。 |
float |
可选 |
0.1 |
(0.0, 1.0] |
l1_regularization_strength |
L1正则化惩罚。 |
float |
可选 |
0.0 |
[0.0, 10000.0] |
l2_regularization_strength |
L2正则化惩罚。 |
float |
可选 |
0.0 |
[0.0, 10000.0] |
accum_name |
保持梯度平方累加器的变量的后缀。 |
string |
可选 |
None |
长度范围:[1, 255] |
linear_name |
保持线性梯度累加器的变量的后缀。 |
string |
可选 |
None |
长度范围:[1, 255] |
l2_shrinkage_regularization_strength |
L2正则化幅度惩罚。 |
float |
可选 |
0.0 |
[0.0, 10000.0] |
如果通过kwargs传递其他未说明参数,则Rec SDK内部不会使用到该参数。
CustomizedFtrl(自定义Ftrl优化器)的一个实例对象。
1 2 | from mx_rec.optimizers.ftrl import create_hash_optimizer hashtable_optimizer = create_hash_optimizer(0.001) |