SGD
自定义SGD优化器。
函数原型
def create_hash_optimizer(learning_rate, use_locking=False, name="GradientDescent")
参数说明
参数名称  | 
参数说明  | 
参数类型  | 
必选/可选  | 
默认值  | 
取值范围  | 
|---|---|---|---|---|---|
learning_rate  | 
学习率。  | 
float/tf.Tensor  | 
必选  | 
无  | 
[0.0, 10.0]  | 
use_locking  | 
优化器中防止对变量并发更新。  | 
bool  | 
可选  | 
False  | 
  | 
name  | 
优化器名称。  | 
string  | 
可选  | 
GradientDescent  | 
优化器名称长度范围:[1, 200]  | 
返回值说明
CustomizedGradientDescent(自定义SGD优化器)的一个实例对象。
使用示例
from mx_rec.optimizers.gradient_descent import create_hash_optimizer hashtable_optimizer = create_hash_optimizer(0.001)
父主题: 优化器