昇腾社区首页
中文
注册
开发者
下载

aclnnMatmulCompress

产品支持情况

产品 是否支持
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object] ×
[object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object] ×
[object Object]Atlas 200I/500 A2 推理产品[object Object] ×
[object Object]Atlas 推理系列产品 [object Object]
[object Object]Atlas 训练系列产品[object Object] ×

功能说明

  • 算子功能:进行l@r矩阵乘计算时,可先通过msModelSlim工具对r矩阵进行无损压缩,减少r矩阵的内存占用大小,然后通过本接口完成无损解压缩,矩阵乘,反量化计算。
  • 计算公式:
x2_unzip=unzip(x2,compressIndex)result=x1@x2_unzip+biasx2\_unzip = unzip(x2, compressIndex)\\ result=x1 @ x2\_unzip + bias

其中x2表示r矩阵经过msModelSlim工具进行压缩后的一维数据, compressIndex表示压缩算法相关的信息,x2_unzipx2\_unzip是本接口内部进行无损解压缩后的数据(与原始r矩阵数据一致),压缩和调用本接口的详细使用样例参考

函数原型

每个算子分为,必须先调用“aclnnMatmulCompressGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnMatmulCompress”接口执行计算。

  • aclnnStatus aclnnMatmulCompressGetWorkspaceSize(const aclTensor* x, const aclTensor* weight, const aclTensor* bias, const aclTensor* compressIndex, uint64_t* workspaceSize, aclTensor* out, aclOpExecutor** executor)
  • aclnnStatus aclnnMatmulCompress(void* workspace, uint64_t workspaceSize, aclOpExecutor* executor, aclrtStream stream)

aclnnMatmulCompressGetWorkspaceSize

  • 参数说明:

    • x(aclTensor*, 计算输入):表示矩阵乘的左输入,公式中的矩阵x1,Device侧的2维ND格式aclTensor,数据类型仅支持FLOAT16。支持

    • weight(aclTensor*, 计算输入):表示压缩后的矩阵乘的右输入,公式中的矩阵x2_unzipx2\_unzip,Device侧的1维ND格式aclTensor,为通过msModelSlim工具中weight_compression模块压缩后的输入,数据类型仅支持FLOAT16。支持

    • bias(aclTensor*, 计算输入):表示偏置的输入,公式中的矩阵bias,Device侧的2维ND格式aclTensor,数据类型仅支持FLOAT,支持空指针传入,shape仅支持(1, n)或者(n), 其中n为输出shape(m, n)的n。支持

    • compressIndex(aclTensor*, 计算输入):表示矩阵乘右输入的压缩索引表,Device侧的1维ND格式aclTensor,数据类型仅支持INT8,通过示例中的msModelSlim工具中获取。支持

    • out(aclTensor*, 计算输出):Device侧的2维aclTensor,数据类型支持FLOAT16。支持ND,不支持

    • workspaceSize(uint64_t*, 出参):返回需要在Device侧申请的workspace大小。

    • executor(aclOpExecutor**, 出参):返回op执行器,包含了算子计算流程。

  • 返回值:

    aclnnStatus:返回状态码,具体参见

    [object Object]

aclnnMatmulCompress

  • 参数说明:

    • workspace(void*, 入参):在Device侧申请的workspace内存地址。

    • workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnMatmulCompressGetWorkspaceSize获取。

    • executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。

    • stream(aclrtStream, 入参):指定执行任务的Stream。

  • 返回值:

    aclnnStatus:返回状态码,具体参见

约束说明

无。

调用示例

1. 准备压缩前的数据

假设通过脚本gen_data.py生成输入数据,示例如下,仅供参考:

[object Object]

执行gen_data.py,假设mat1和mat2的shape入参为m=512、k=1024、n=1024。

[object Object]

2. 对数据进行预处理

原始权重通过msModelSlim压缩工具生成压缩后的x2、compressIndex以及compressInfo: 使用以下接口时,需对CANN包中msModelSlim压缩工具进行编译,具体操作参考中msmodelslim/pytorch/weight_compression目录下的README.md。

[object Object]

3. 调用aclnn接口运算

示例代码如下,仅供参考,具体编译和执行过程请参考

[object Object]