如下命令如果使用非root用户安装,需要在安装命令后加上--user,例如:pip3 install onnx --user。
pip3 install numpy==1.25.2 pip3 install tqdm==4.66.1 pip3 install typepy #需大于等于1.3.1版本 pip3 install sacrebleu #需大于等于2.3.1版本 pip3 install datasets #需大于等于2.13.1版本 pip3 install sqlitedict #需大于等于2.1.0版本 pip3 install omegaconf #需大于等于2.3.0版本 pip3 install pycountry #需大于等于22.3.5版本 pip3 install rouge_score #需大于等于0.1.2版本 pip3 install peft #需大于等于0.5.0版本
大模型压缩工具共分为稀疏、量化和权重压缩三大环节,用户需连续运行方可实现大模型压缩。
权重压缩工具在加载输入的权重文件时,存在一定的反序列化攻击安全风险。权重压缩工具通过界面提示操作存在反序列化攻击的安全风险,在加载前用户交互确认加载的权重文件无风险后,才开始进行对文件的操作。
本示例旨在说明基于MindSpore框架的大模型稀疏量化的操作步骤。
├── model.ckpt
大模型量化工具建议在大模型下游任务评估流程打通的前提下使用,请自行调试源码后进行以下量化配置。
稀疏量化场景导入样例代码如下:
# 导入相关依赖 import mindspore as ms model, tokenizer = load_model_and_tokenizer() # 用户根据实际使用场景自行加载MindSpore框架下的组件 # 准备校准数据,请根据实际情况修改 calib_list = ["中国的首都在哪里?", "请做一首诗歌:", "我想要学习python,该怎么学习?", "请帮我写一篇关于大模型推理优化的任职报告:", "中国最值得去的几个景点"] #获取校准数据函数定义 def get_calib_dataset(tokenizer, calib_list): calib_dataset = [] for calib_data in calib_list: inputs = tokenizer(calib_data, return_tensors='np', padding=True) calib_dataset.append([inputs.data['input_ids_name']]) return calib_dataset dataset_calib = get_calib_dataset(tokenizer, calib_list) #校准数据获取 # 稀疏量化配置,请根据实际情况修改 from msmodelslim.mindspore.llm_ptq import Calibrator, QuantConfig # 导入稀疏量化配置接口 # 使用QuantConfig接口,配置稀疏量化参数,并返回配置实例 quant_config = QuantConfig( disable_names=[], # 回退层按照实际需求进行配置 fraction=0.03, # fraction参数按照实际需求配置 ) #使用Calibrator接口,输入加载的原模型、稀疏量化配置和校准数据,定义校准 calibrator = Calibrator( cfg=quant_config, model=model, model_ckpt="./model.ckpt", calib_data=dataset_calib ) calibrator.run() #使用run()执行量化 calibrator.save('./quant_weight.ckpt') #使用save()保存模型量化参数,请根据实际情况修改路径 print('Save quant weight success!')
因为在存储量化参数过程中存在反序列化风险,所以已通过在存储过程中,将保存的量化结果文件夹权限设置为750,量化权重文件权限设置为400,量化权重描述文件设为600来消减风险。
python3 sparse_quant.py
cd ${INSTALL_DIR}/tools/msmodelslim/pytorch/weight_compression/compress_graph
${INSTALL_DIR}请替换为CANN软件安装后文件存储路径。例如,若安装的Ascend-cann-toolkit软件包,则安装后文件存储路径为:$HOME/Ascend/ascend-toolkit/latest。
bash build.sh $HOME/Ascend/ascend-toolkit/latest
cd build
import re linear_weight_pattern = r"model\.layers\.\d+\.(attention[^_]|feed_forward|augs_attn\d+).*\.weight$" #根据实际情况进行权重键值的筛选 reg = re.compile(linear_weight_pattern) sparse_ckpt = ms.load_checkpoint(f"./quant_weight.ckpt") #./quant_weight.ckpt为稀疏量化结果件的保存路径 compressed_weight_dict = {} for k, v in sparse_ckpt.items(): if reg.search(k): if k in disable_names: continue compressed_weight_dict[k] = v.numpy() np.save(f"quant_weight.npy", compressed_weight_dict)
权重压缩工具仅需要对权重文件ckpt进行压缩操作。
# 导入相关依赖 import sys import os import numpy as np # 导入权重压缩接口 from msmodelslim.pytorch.weight_compression import CompressConfig, Compressor def make_dir(path): if not os.path.exists(path): os.makedirs(path, mode=0o750) return path # 准备待压缩权重文件和相关压缩配置,请根据实际情况进行修改 weight_path = "./quant_weight.npy" # 待压缩权重文件的路径 save_path = "./compress" # 压缩后权重文件保存的路径 index_root = make_dir(os.path.join(save_path, 'index')) weight_root = make_dir(os.path.join(save_path, 'weight')) info_root = make_dir(os.path.join(save_path, 'info')) # 使用CompressConfig接口,配置压缩参数,并返回配置实例 compress_config = CompressConfig(do_pseudo_sparse=False, sparse_ratio=1, is_debug=True, record_detail_root=save_path, multiprocess_num=8) #使用Compressor接口,输入加载的压缩配置和待压缩权重文件 compressor = Compressor(compress_config, weight_path) compress_weight, compress_index, compress_info = compressor.run() #使用export()接口,保存压缩后的结果文件 compressor.export(compress_weight, weight_root) compressor.export(compress_index, index_root) compressor.export(compress_info, info_root, dtype=np.int64)
python3 compress.py
用户需要将压缩后得到的权重文件(compress_weight、compress_index和compress_info)自行整合到ckpt文件中,才能用于后续的推理部署任务。