保存一个CheckPoint文件。
save_checkpoint(checkpoint_name, model, optimizer, **kwargs)
参数 |
是否必选 |
说明 |
取值要求 |
---|---|---|---|
checkpoint_name |
必选 |
保存路径。 |
有效的checkpoint文件路径。 |
model |
可选 |
要保存的模型参数checkpoint。与optimizer二选一填写。 |
- |
optimizer |
可选 |
分布式优化器对象。与model二选一填写。 |
- |
kwargs |
可选 |
若使用的链式优化器,需添加额外参数。 |
- |
>>> from torch_mindio import CheckpointHelper >>> CheckpointHelper().save_checkpoint(checkpoint_name=checkpoint_name, optimizer=optimizer)