昇腾社区首页
中文
注册
开发者
下载

aclnnMatmulCompressDequant

产品支持情况

[object Object]undefined

功能说明

  • 算子功能:进行l@r矩阵乘计算时,可先通过msModelSlim工具对r矩阵进行无损压缩,减少r矩阵的内存占用大小,然后通过本接口完成无损解压缩,矩阵乘,反量化计算。
  • 计算公式:
x2_unzip=unzip(x2,compressIndexcompressInfo)result=(x1@x2_unzip+bias)deqScalex2\_unzip = unzip(x2, compressIndex,compressInfo)\\ result=(x1 @ x2\_unzip + bias)*deqScale

其中x2表示r矩阵经过msModelSlim工具进行压缩后的一维数据,compressIndex以及compressInfo表示压缩算法相关的信息,x2_unzipx2\_unzip是本接口内部进行无损解压缩后的数据(与原始r矩阵数据一致),压缩和调用本接口的详细使用样例参考

函数原型

每个算子分为,必须先调用“aclnnMatmulCompressDequantGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMatmulCompressDequant”接口执行计算。

[object Object]
[object Object]

aclnnMatmulCompressDequantGetWorkspaceSize

  • 参数说明:

    [object Object]
  • 返回值:

    aclnnStatus:返回状态码,具体参见

    第一段接口完成入参校验,出现以下场景时报错:

    [object Object]

aclnnMatmulCompressDequant

  • 参数说明:

    [object Object]
  • 返回值:

    aclnnStatus:返回状态码,具体参见

约束说明

  • 确定性计算:
    • aclnnMatmulCompressDequant默认确定性实现。

调用示例

  1. 准备压缩前的数据 假设通过脚本gen_data.py生成输入数据,示例如下,仅供参考:
[object Object]

执行gen_data.py,假设mat1和mat2的shape入参为m=512、k=1024、n=1024。

[object Object]
  1. 对数据进行预处理

原始权重通过msModelSlim压缩工具生成压缩后的x2、compressIndex以及compressInfo:

使用以下接口时,需对CANN包中msModelSlim压缩工具进行编译,具体操作参考中msmodelslim/pytorch/weight_compression目录下的README.md。

[object Object]

将原始float类型的反量化参数deqscale进行转换, 得到aclnn接口需要的uint64数据:

deqScale原始为float类型,以int32读取并转换为int64

[object Object]
  1. 调用aclnn接口运算

示例代码如下,仅供参考,具体编译和执行过程请参考

[object Object]