aclnnMatmulCompressDequant
产品支持情况
产品 | 是否支持 |
---|---|
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object] | × |
[object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object] | × |
[object Object]Atlas 200I/500 A2 推理产品[object Object] | × |
[object Object]Atlas 推理系列产品 [object Object] | √ |
[object Object]Atlas 训练系列产品[object Object] | × |
功能说明
- 算子功能:进行l@r矩阵乘计算时,可先通过msModelSlim工具对r矩阵进行无损压缩,减少r矩阵的内存占用大小,然后通过本接口完成无损解压缩,矩阵乘,反量化计算。
- 计算公式:
其中x2表示r矩阵经过msModelSlim工具进行压缩后的一维数据, compressIndex以及compressInfo表示压缩算法相关的信息,是本接口内部进行无损解压缩后的数据(与原始r矩阵数据一致),压缩和调用本接口的详细使用样例参考undefined。
函数原型
每个算子分为undefined,必须先调用“aclnnMatmulCompressDequantGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMatmulCompressDequant”接口执行计算。
aclnnStatus aclnnMatmulCompressDequantGetWorkspaceSize(const aclTensor* x1, const aclTensor* x2, const aclTensor* compressIndex, const aclTensor* bias, const aclTensor* deqScale, const aclTensor* offsetW, int offsetX, const aclIntArray* compressInfo, aclTensor* out, uint64_t* workspaceSize, aclOpExecutor** executor)
aclnnStatus aclnnMatmulCompressDequant(void* workspace, uint64_t workspaceSize, aclOpExecutor* executor, aclrtStream stream)
aclnnMatmulCompressDequantGetWorkspaceSize
参数说明:
x1(aclTensor*, 计算输入):表示矩阵乘的左输入,Device侧的2维ND格式aclTensor,数据类型仅支持INT8。不支持undefined。
x2(aclTensor*, 计算输入):表示压缩后的矩阵乘的右输入,Device侧的1维ND格式aclTensor,为通过msModelSlim工具中weight_compression模块压缩后的输入,数据类型仅支持INT8。不支持undefined,公式中的Reduce维度需要与x1的Reduce维度大小相等。
compressIndex(aclTensor*, 计算输入):表示矩阵乘右输入的压缩索引表,Device侧的1维ND格式aclTensor,数据类型支持INT8,通过示例中的msModelSlim工具中获取。
bias(aclTensor*, 计算输入):Device侧的2维ND格式aclTensor,数据类型仅支持INT32,支持空指针传入,shape仅支持(1, n)或者(n), 其中n为输出shape(m, n)的n。
deqScale(aclTensor*, 计算输入):表示反量化参数,Device侧的2维ND格式aclTensor,shape支持(1, n)或者(1, 1), 其中n为输出shape(m, n)中的n, tensor中的值为float通过下述示例中转换后的UINT64的数据,数据类型仅支持UINT64。
offsetW(aclTensor*, 计算输入):表示矩阵乘右输入的偏移量,Device侧的aclTensor,数据类型是INT8,维度与一致, 当前仅支持空指针传入。
offsetX(int32, 计算输入):Host侧的标量,表示矩阵乘左输入的偏移量,数据类型仅支持INT32,当前仅支持0。
compressInfo(aclIntArray*, 计算输入):Host侧整型数据列表,数据类型为INT64。其中包括压缩块信息tilingN、tilingK(通过msModelSlim工具中weight_compression模块压缩后获取,分别表示压缩前shape(n, k)在n方向和k方向上一个基本压缩块的大小),压缩前x2矩阵原始shape(shape为2维,用(n, k)表示),以及压缩块遍历方向的标识。
out(aclTensor*, 计算输出):Device侧的2维aclTensor,数据类型支持FLOAT16。undefined支持ND,不支持undefined。
workspaceSize(uint64_t*, 出参):返回需要在Device侧申请的workspace大小。
executor(aclOpExecutor**, 出参):返回op执行器,包含了算子计算流程。
返回值:
aclnnStatus:返回状态码,具体参见undefined。
[object Object]
aclnnMatmulCompressDequant
参数说明:
workspace(void*, 入参):在Device侧申请的workspace内存地址。
workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnMatmulCompressDequantGetWorkspaceSize获取。
executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。
stream(aclrtStream, 入参):指定执行任务的Stream。
返回值:
aclnnStatus:返回状态码,具体参见undefined
约束说明
无。
调用示例
1. 准备压缩前的数据
假设通过脚本gen_data.py生成输入数据,示例如下,仅供参考:
执行gen_data.py,假设mat1和mat2的shape入参为m=512、k=1024、n=1024。
2. 对数据进行预处理
原始权重通过msModelSlim压缩工具生成压缩后的x2、compressIndex以及compressInfo: 使用以下接口时,需对CANN包中msModelSlim压缩工具进行编译,具体操作参考undefined中msmodelslim/pytorch/weight_compression目录下的README.md。
将原始float类型的反量化参数deqscale进行转换, 得到aclnn接口需要的uint64数据:
deqScale原始为float类型,以int32读取并转换为int64
3. 调用aclnn接口运算
示例代码如下,仅供参考,具体编译和执行过程请参考undefined。