概述
简述
Transformer模型通过跟踪序列数据中的关系来学习上下文并因此学习含义。该模型使用全Attention的结构代替了LSTM,抛弃了之前传统的Encoder-Decoder模型必须结合CNN或者RNN的固有模式,在减少计算量和提高并行效率的同时还取得了更好的结果。
参考实现:
[object Object]
适配昇腾 AI 处理器的实现:
[object Object]
准备训练环境
准备环境
当前模型支持的 PyTorch 版本和已知三方库依赖如下表所示。
表 1 版本支持表
Torch_Version 三方库依赖版本 PyTorch 1.5 - PyTorch 1.8 - 环境准备指导。
请参考《Pytorch框架训练环境准备》。
安装依赖。
在模型源码包根目录下执行命令。
[object Object]
准备数据集
获取数据集。
用户自行下载
WMT
(Workshop on Machine Translation)数据集,并将数据集上传到源码包中的./examples/translation
目录下并解压。表 2 数据集简介表
来源 名称 wmt13 training-parallel-europarl-v7.tgz wmt13 training-parallel-commoncrawl.tgz wmt17 training-parallel-nc-v12.tgz wmt17 dev.tgz wmt14 test-full.tgz 其中,前四项语料为训练集+验证集;最后一项语料为测试集。
数据预处理。
进入源码包根目录下执行下面脚本。
[object Object]
开始训练
训练模型
进入解压后的源码包根目录。
[object Object]
运行训练脚本。
该模型支持单机单卡训练和单机8卡训练。
单机单卡训练
启动单卡训练。
[object Object]
单机8卡训练
启动8卡训练。
[object Object]
--data_path参数填写
run_preprocessing.sh
中DATASET_DIR
的路径。模型训练脚本参数说明如下。
[object Object]
训练完成后,权重文件保存在当前路径下,并输出模型训练精度和性能信息。
训练结果展示
表 3 训练结果展示表
NAME | Acc@1 | FPS | Epochs | AMP_Type | Torch_Version |
---|---|---|---|---|---|
1p-竞品V | - | - | 1 | - | 1.5 |
8p-竞品V | - | - | 3 | - | 1.5 |
1p-NPU | - | 869.903 | 1 | O2 | 1.8 |
8p-NPU | 10.8858 | 6326.66 | 3 | O2 | 1.8 |
版本说明
变更
2022.11.11:更新torch1.8版本,重新发布。
2021.01.12:首次发布。
FAQ
无。