昇腾社区首页
中文
注册

aclnnMatmulCompressDequant

产品支持情况

产品 是否支持
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object] ×
[object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object] ×
[object Object]Atlas 200I/500 A2 推理产品[object Object] ×
[object Object]Atlas 推理系列产品 [object Object]
[object Object]Atlas 训练系列产品[object Object] ×

功能说明

  • 算子功能:进行l@r矩阵乘计算时,可先通过msModelSlim工具对r矩阵进行无损压缩,减少r矩阵的内存占用大小,然后通过本接口完成无损解压缩,矩阵乘,反量化计算。
  • 计算公式:
x2_unzip=unzip(x2,compressIndexcompressInfo)result=(x1@x2_unzip+bias)deqScalex2\_unzip = unzip(x2, compressIndex,compressInfo)\\ result=(x1 @ x2\_unzip + bias)*deqScale

其中x2表示r矩阵经过msModelSlim工具进行压缩后的一维数据, compressIndex以及compressInfo表示压缩算法相关的信息,x2_unzipx2\_unzip是本接口内部进行无损解压缩后的数据(与原始r矩阵数据一致),压缩和调用本接口的详细使用样例参考undefined

函数原型

每个算子分为undefined,必须先调用“aclnnMatmulCompressDequantGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMatmulCompressDequant”接口执行计算。

  • aclnnStatus aclnnMatmulCompressDequantGetWorkspaceSize(const aclTensor* x1, const aclTensor* x2, const aclTensor* compressIndex, const aclTensor* bias, const aclTensor* deqScale, const aclTensor* offsetW, int offsetX, const aclIntArray* compressInfo, aclTensor* out, uint64_t* workspaceSize, aclOpExecutor** executor)
  • aclnnStatus aclnnMatmulCompressDequant(void* workspace, uint64_t workspaceSize, aclOpExecutor* executor, aclrtStream stream)

aclnnMatmulCompressDequantGetWorkspaceSize

  • 参数说明:

    • x1(aclTensor*, 计算输入):表示矩阵乘的左输入,Device侧的2维ND格式aclTensor,数据类型仅支持INT8。不支持undefined

    • x2(aclTensor*, 计算输入):表示压缩后的矩阵乘的右输入,Device侧的1维ND格式aclTensor,为通过msModelSlim工具中weight_compression模块压缩后的输入,数据类型仅支持INT8。不支持undefined,公式中x2_unzipx2\_unzip的Reduce维度需要与x1的Reduce维度大小相等。

    • compressIndex(aclTensor*, 计算输入):表示矩阵乘右输入的压缩索引表,Device侧的1维ND格式aclTensor,数据类型支持INT8,通过示例中的msModelSlim工具中获取。

    • bias(aclTensor*, 计算输入):Device侧的2维ND格式aclTensor,数据类型仅支持INT32,支持空指针传入,shape仅支持(1, n)或者(n), 其中n为输出shape(m, n)的n。

    • deqScale(aclTensor*, 计算输入):表示反量化参数,Device侧的2维ND格式aclTensor,shape支持(1, n)或者(1, 1), 其中n为输出shape(m, n)中的n, tensor中的值为float通过下述示例中转换后的UINT64的数据,数据类型仅支持UINT64。

    • offsetW(aclTensor*, 计算输入):表示矩阵乘右输入的偏移量,Device侧的aclTensor,数据类型是INT8,维度与x2_unzipx2\_unzip一致, 当前仅支持空指针传入。

    • offsetX(int32, 计算输入):Host侧的标量,表示矩阵乘左输入的偏移量,数据类型仅支持INT32,当前仅支持0。

    • compressInfo(aclIntArray*, 计算输入):Host侧整型数据列表,数据类型为INT64。其中包括压缩块信息tilingN、tilingK(通过msModelSlim工具中weight_compression模块压缩后获取,分别表示压缩前shape(n, k)在n方向和k方向上一个基本压缩块的大小),压缩前x2矩阵原始shape(shape为2维,用(n, k)表示),以及压缩块遍历方向的标识。

    • out(aclTensor*, 计算输出):Device侧的2维aclTensor,数据类型支持FLOAT16。undefined支持ND,不支持undefined

    • workspaceSize(uint64_t*, 出参):返回需要在Device侧申请的workspace大小。

    • executor(aclOpExecutor**, 出参):返回op执行器,包含了算子计算流程。

  • 返回值:

    aclnnStatus:返回状态码,具体参见undefined

    [object Object]

aclnnMatmulCompressDequant

  • 参数说明:

    • workspace(void*, 入参):在Device侧申请的workspace内存地址。

    • workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnMatmulCompressDequantGetWorkspaceSize获取。

    • executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。

    • stream(aclrtStream, 入参):指定执行任务的Stream。

  • 返回值:

    aclnnStatus:返回状态码,具体参见undefined

约束说明

无。

调用示例

1. 准备压缩前的数据

假设通过脚本gen_data.py生成输入数据,示例如下,仅供参考:

[object Object]

执行gen_data.py,假设mat1和mat2的shape入参为m=512、k=1024、n=1024。

[object Object]

2. 对数据进行预处理

原始权重通过msModelSlim压缩工具生成压缩后的x2、compressIndex以及compressInfo: 使用以下接口时,需对CANN包中msModelSlim压缩工具进行编译,具体操作参考undefined中msmodelslim/pytorch/weight_compression目录下的README.md。

[object Object]

将原始float类型的反量化参数deqscale进行转换, 得到aclnn接口需要的uint64数据:

deqScale原始为float类型,以int32读取并转换为int64

[object Object]

3. 调用aclnn接口运算

示例代码如下,仅供参考,具体编译和执行过程请参考undefined

[object Object]