aclnnMatmulCompress
产品支持情况
产品 | 是否支持 |
---|---|
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object] | × |
[object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object] | × |
[object Object]Atlas 200I/500 A2 推理产品[object Object] | × |
[object Object]Atlas 推理系列产品 [object Object] | √ |
[object Object]Atlas 训练系列产品[object Object] | × |
功能说明
- 算子功能:进行l@r矩阵乘计算时,可先通过msModelSlim工具对r矩阵进行无损压缩,减少r矩阵的内存占用大小,然后通过本接口完成无损解压缩,矩阵乘,反量化计算。
- 计算公式:
其中x2表示r矩阵经过msModelSlim工具进行压缩后的一维数据, compressIndex表示压缩算法相关的信息,是本接口内部进行无损解压缩后的数据(与原始r矩阵数据一致),压缩和调用本接口的详细使用样例参考。
函数原型
每个算子分为,必须先调用“aclnnMatmulCompressGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMatmulCompress”接口执行计算。
aclnnStatus aclnnMatmulCompressGetWorkspaceSize(const aclTensor* x, const aclTensor* weight, const aclTensor* bias, const aclTensor* compressIndex, uint64_t* workspaceSize, aclTensor* out, aclOpExecutor** executor)
aclnnStatus aclnnMatmulCompress(void* workspace, uint64_t workspaceSize, aclOpExecutor* executor, aclrtStream stream)
aclnnMatmulCompressGetWorkspaceSize
参数说明:
x(aclTensor*, 计算输入):表示矩阵乘的左输入,公式中的矩阵x1,Device侧的2维ND格式aclTensor,数据类型仅支持FLOAT16。支持。
weight(aclTensor*, 计算输入):表示压缩后的矩阵乘的右输入,公式中的矩阵,Device侧的1维ND格式aclTensor,为通过msModelSlim工具中weight_compression模块压缩后的输入,数据类型仅支持FLOAT16。支持。
bias(aclTensor*, 计算输入):表示偏置的输入,公式中的矩阵bias,Device侧的2维ND格式aclTensor,数据类型仅支持FLOAT,支持空指针传入,shape仅支持(1, n)或者(n), 其中n为输出shape(m, n)的n。支持。
compressIndex(aclTensor*, 计算输入):表示矩阵乘右输入的压缩索引表,Device侧的1维ND格式aclTensor,数据类型仅支持INT8,通过示例中的msModelSlim工具中获取。支持。
out(aclTensor*, 计算输出):Device侧的2维aclTensor,数据类型支持FLOAT16。支持ND,不支持。
workspaceSize(uint64_t*, 出参):返回需要在Device侧申请的workspace大小。
executor(aclOpExecutor**, 出参):返回op执行器,包含了算子计算流程。
返回值:
[object Object]
aclnnMatmulCompress
参数说明:
workspace(void*, 入参):在Device侧申请的workspace内存地址。
workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnMatmulCompressGetWorkspaceSize获取。
executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。
stream(aclrtStream, 入参):指定执行任务的Stream。
返回值:
约束说明
无。
调用示例
1. 准备压缩前的数据
假设通过脚本gen_data.py生成输入数据,示例如下,仅供参考:
执行gen_data.py,假设mat1和mat2的shape入参为m=512、k=1024、n=1024。
2. 对数据进行预处理
原始权重通过msModelSlim压缩工具生成压缩后的x2、compressIndex以及compressInfo: 使用以下接口时,需对CANN包中msModelSlim压缩工具进行编译,具体操作参考中msmodelslim/pytorch/weight_compression目录下的README.md。