Estimator API属于TensorFlow的高阶API,在2018年发布的TensorFlow 1.10版本中引入,它可极大简化机器学习的编程过程。Estimator有很多优势,例如:对分布式的良好支持、简化了模型的创建工作、有利于模型开发者之间的代码分享等。
使用Estimator进行训练脚本开发的流程为:
下面介绍如何迁移Estimator训练脚本,以便在昇腾AI处理器上进行训练。
对于以下步骤中涉及修改的python文件,新增以下头文件引用,用于导入NPU相关库。
from npu_bridge.npu_init import *
一般情况下,此部分代码无需改造。如下情况需要进行适配修改:
dataset = dataset.batch(batch_size, drop_remainder=True)
assert num_written_lines == num_actual_predict_examples
一般情况下,此部分代码无需改造。如下情况需要进行适配修改:
layers = npu_ops.dropout()
from npu_bridge.estimator.npu import npu_convert_dropout
def gelu(x): cdf = 0.5 * (1.0 + tf.tanh( (np.sqrt(2 / np.pi) * (x + 0.044715 * tf.pow(x, 3))))) return x*cdf layers = gelu()
迁移后的代码:
layers = npu_unary_ops.gelu(x)
TensorFlow通过RunConfig配置运行参数,用户需要将RunConfig迁移为NPURunConfig。NPURunConfig类继承了RunConfig类,因此我们在迁移时可直接按照如下示例进行脚本修改,大多数参数可不变。
config=tf.estimator.RunConfig( model_dir=FLAGS.model_dir, save_checkpoints_steps=FLAGS.save_checkpoints_steps, session_config=tf.ConfigProto(allow_soft_placement=True, log_device_placement=False))
迁移后的代码:
npu_config=NPURunConfig( model_dir=FLAGS.model_dir, save_checkpoints_steps=FLAGS.save_checkpoints_steps, # 如果原始网络中使用了tf.device相关代码,则需要增加session配置“allow_soft_placement=True”,允许TensorFlow自动分配设备。 session_config=tf.ConfigProto(allow_soft_placement=True, log_device_placement=False) )
但是,部分参数(包括train_distribute/device_fn/protocol/eval_distribute/experimental_distribute)在NPURunConfig中不支持,如果原始脚本使用到了,用户需要进行删除。
如果原始网络中使用了tf.device相关代码,需要增加session配置“allow_soft_placement=True”,允许TensorFlow自动分配设备。
同时,我们在NPURunConfig新增了部分参数,从而提升训练性能与精度,例如iterations_per_loop、precision_mode等,详细的参数信息可参见NPURunConfig构造函数。
用户需要将TensorFlow的Estimator迁移为NPUEstimator,NPUEstimator类继承了Estimator类,因此我们在迁移时按照如下示例直接更改接口即可,参数可保持不变。
TensorFlow原始代码:
mnist_classifier=tf.estimator.Estimator( model_fn=cnn_model_fn, config=config, model_dir="/tmp/mnist_convnet_model")
迁移后的代码:
mnist_classifier=NPUEstimator( model_fn=cnn_model_fn, config=npu_config, model_dir="/tmp/mnist_convnet_model" )
mnist_classifier.train( input_fn=train_input_fn, steps=20000, hooks=[logging_hook])