下载
中文
注册
Transformer-PyTorch

概述

简述

Transformer模型通过跟踪序列数据中的关系来学习上下文并因此学习含义。该模型使用全Attention的结构代替了LSTM,抛弃了之前传统的Encoder-Decoder模型必须结合CNN或者RNN的固有模式,在减少计算量和提高并行效率的同时还取得了更好的结果。

  • 参考实现:

    [object Object]
  • 适配昇腾 AI 处理器的实现:

    [object Object]

准备训练环境

准备环境

  • 当前模型支持的 PyTorch 版本和已知三方库依赖如下表所示。

    表 1 版本支持表

    Torch_Version 三方库依赖版本
    PyTorch 1.5 -
    PyTorch 1.8 -
  • 环境准备指导。

    请参考《Pytorch框架训练环境准备》。

  • 安装依赖。

    在模型源码包根目录下执行命令。

    [object Object]

准备数据集

  1. 获取数据集。

    用户自行下载 WMT (Workshop on Machine Translation)数据集,并将数据集上传到源码包中的 ./examples/translation 目录下并解压。

    表 2 数据集简介表

    来源 名称
    wmt13 training-parallel-europarl-v7.tgz
    wmt13 training-parallel-commoncrawl.tgz
    wmt17 training-parallel-nc-v12.tgz
    wmt17 dev.tgz
    wmt14 test-full.tgz

    其中,前四项语料为训练集+验证集;最后一项语料为测试集。

  2. 数据预处理。

    进入源码包根目录下执行下面脚本。

    [object Object]

开始训练

训练模型

  1. 进入解压后的源码包根目录。

    [object Object]
  2. 运行训练脚本。

    该模型支持单机单卡训练和单机8卡训练。

    • 单机单卡训练

      启动单卡训练。

      [object Object]
    • 单机8卡训练

      启动8卡训练。

      [object Object]

    --data_path参数填写 run_preprocessing.shDATASET_DIR 的路径。

    模型训练脚本参数说明如下。

    [object Object]

    训练完成后,权重文件保存在当前路径下,并输出模型训练精度和性能信息。

训练结果展示

表 3 训练结果展示表

NAME Acc@1 FPS Epochs AMP_Type Torch_Version
1p-竞品V - - 1 - 1.5
8p-竞品V - - 3 - 1.5
1p-NPU - 869.903 1 O2 1.8
8p-NPU 10.8858 6326.66 3 O2 1.8

版本说明

变更

2022.11.11:更新torch1.8版本,重新发布。

2021.01.12:首次发布。

FAQ

无。

使用模型资源和服务前,请您仔细阅读并理解透彻 《昇腾深度学习模型许可协议 3.0》