下载
中文
注册
DeepSeek-V3 全参微调
点击DeepSeek专区获取更多资源

准备训练环境

准备环境

默认配置需要每张卡有60G以上空闲内存。

  • 当前模型支持的 PyTorch 版本和已知三方库依赖如下表所示。

    表 1 版本支持表

    软件名称 版本 链接
    CANN 8.0.0 LINK
    HDK 24.1.0.3 LINK
    FrameworkPTAdapter 6.0.0-pytorch2.1.0 LINK

准备模型权重

获取语言识别模型和预训练权重

用户从链接获取模型文件和163份权重文件(model-0000*-of-000163.safetensors),并放于model目录下,微调依赖该模型权重。 model参考目录如下:

├── model
    ├── .gitattributes
    ├── README.md
    ├── config.json
    ├── configuration_deepseek.py
    ├── model-00001-of-000163.safetensors
    ├── model-00002-of-000163.safetensors
    ...
    ├── model-000163-of-000163.safetensors
    ├── model.safetensors.index.json
    ├── modeling_deepseek.py
    ├── tokenizer.json
    └── tokenizer_config.json

开始微调训练

通过MindSpeed-LLM执行高性能大模型训练

开发者可访问MindSpeed-LLM代码仓(commit-id:7d0da7d63dbda41ce7d6cb08acd1b734b66b14e4)了解模型详细执行流程:

MindSpeed-LLM 环境配置指南详见(HDK,CANN等具体版本参考上文链接):
https://gitee.com/ascend/MindSpeed-LLM/blob/7d0da7d63dbda41ce7d6cb08acd1b734b66b14e4/docs/features/install_guide.md

DeepSeekV3模型微调数据预处理可以参考:
https://gitee.com/ascend/MindSpeed-LLM/blob/7d0da7d63dbda41ce7d6cb08acd1b734b66b14e4/docs/features/alpaca_dataset.md

DeepSeekV3模型权重分布式转换可以参考:
https://gitee.com/ascend/MindSpeed-LLM/tree/7d0da7d63dbda41ce7d6cb08acd1b734b66b14e4/examples/mcore/deepseek3

DeepSeekV3模型全参微调执行脚本:
https://gitee.com/ascend/MindSpeed-LLM/blob/7d0da7d63dbda41ce7d6cb08acd1b734b66b14e4/examples/mcore/deepseek3/tune_deepseek3_671b_4k_full_ptd.sh

DeepSeekV3模型全参微调推理执行脚本:
https://gitee.com/ascend/MindSpeed-LLM/blob/7d0da7d63dbda41ce7d6cb08acd1b734b66b14e4/examples/mcore/deepseek3/generate_deepseek3_671b_4k_full_ptd.sh
使用模型资源和服务前,请您仔细阅读并理解透彻 《昇腾深度学习模型许可协议 3.0》