概述
简述
Swin-Transformer 使用层级式的transformer和移动窗口将transformer应用到CV领域。其通过限制在窗口内使用自注意力,带来了更高的效率 ,通过移动,使得相邻两个窗口之间有了交互,上下层之间也就有了跨窗口连接,从而变相达到了一种全局建模的效果。
参考实现:
url=https://github.com/microsoft/Swin-Transformer commit_id=22e57f446ecc3fa650df1e1a271807bfd7ddcf74适配昇腾 AI 处理器的实现:
url=https://gitee.com/ascend/ModelZoo-PyTorch.git code_path=PyTorch/contrib/cv/classification
准备训练环境
准备环境
当前模型支持的 PyTorch 版本和已知三方库依赖如下表所示。
表 1 版本支持表
Torch_Version 三方库依赖版本 PyTorch 1.5 torchvision==0.2.2.post3;pillow==8.4.0 PyTorch 1.8 torchvision==0.9.1;pillow==9.1.0 环境准备指导。
请参考《Pytorch框架训练环境准备》。
安装依赖。
在模型源码包根目录下执行命令,安装模型对应PyTorch版本需要的依赖。
pip install -r 1.5_requirements.txt # PyTorch1.5版本 pip install -r 1.8_requirements.txt # PyTorch1.8版本说明: 只需执行一条对应的PyTorch版本依赖安装命令。
准备数据集
获取数据集。
用户自行获取
ImageNet数据集,将数据集上传到服务器任意路径下并解压。数据集目录结构参考如下所示。
├── ImageNet ├──train ├──类别1 │──图片1 │──图片2 │ ... ├──类别2 │──图片1 │──图片2 │ ... ├──... ├──val ├──类别1 │──图片1 │──图片2 │ ... ├──类别2 │──图片1 │──图片2 │ ...说明: 该数据集的训练过程脚本只作为一种参考示例。
开始训练
训练模型
进入解压后的源码包根目录。
cd /${模型文件夹名称}运行训练脚本。
该模型支持单机单卡训练和单机8卡训练。
单机单卡训练
启动单卡训练。
bash ./test/train_full_1p.sh --data_path=real_data_path # 单卡精度 bash ./test/train_performance_1p.sh --data_path=real_data_path # 单卡性能单机8卡训练
启动8卡训练。
bash ./test/train_full_8p.sh --data_path=real_data_path # 8卡精度 bash ./test/train_performance_8p.sh --data_path=real_data_path # 8卡性能单机8卡评测
启动8卡评测。
bash ./test/train_eval_8p.sh --data_path=real_data_path --pth_path=real_pre_train_model_path #8卡评测
--data_path参数填写数据集路径,需写到数据集的一级目录。
--pth_path参数填写训练权重生成路径,需写到权重文件的一级目录。
模型训练脚本参数说明如下。
--cfg //配置文件 --data_path //数据集路径 --one_epoch //是否训练1个epoch --batch_size //训练批次大小 --local_rank //训练设备卡号训练完成后,权重文件保存在当前路径下,并输出模型训练精度和性能信息。
训练结果展示
表 2 训练结果展示表
| NAME | Acc@1 | FPS | Epochs | AMP_Type | Torch_Version | 
|---|---|---|---|---|---|
| 1p-竞品V | - | 284 | 1 | - | 1.5 | 
| 8p-竞品V | 81.1 | 1906 | 300 | - | 1.5 | 
| 1p-竞品A | - | - | 1 | - | 1.5 | 
| 8p-竞品A | 81.1 | 2876 | 300 | - | 1.5 | 
| 1p-NPU | - | 432.41 | 1 | O2 | 1.8 | 
| 8p-NPU | 81.0 | 3600.85 | 300 | O2 | 1.8 | 
版本说明
变更
2022.12.20:更新readme,重新发布。
FAQ
无。



