aclnnGroupedMatmulSwigluQuant
产品支持情况
功能说明
接口功能:融合GroupedMatmul 、dquant、swiglu和quant,详细解释见计算公式。
计算公式:
- 量化场景(A8W8):
定义:
- ⋅ 表示矩阵乘法。
- ⊙ 表示逐元素乘法。
- 表示将x四舍五入到最近的整数。
输入:
- :输入矩阵(左矩阵),M是总token 数,K是特征维度。
- :分组权重矩阵(右矩阵),E是专家个数,K是特征维度,N是输出维度。
- :分组权重矩阵(右矩阵)的逐通道缩放因子,E是专家个数,N是输出维度。
- :输入矩阵(左矩阵)的逐 token缩放因子,M是总token 数。
- :前缀和的分组索引列表。
输出:
- :量化后的输出矩阵。
- :量化缩放因子。
计算过程
1.根据groupList[i]确定当前分组的 token ,。
[object Object]
2.根据分组确定的入参进行如下计算:
其中
3.量化输出结果
- MSD伪量化场景(A8W4):
- 定义:
- ⋅ 表示矩阵乘法。
- ⊙ 表示逐元素乘法。
- 表示将x四舍五入到最近的整数。
- 输入:
- :输入矩阵(左矩阵),M是总token 数,K是特征维度。
- :分组权重矩阵(右矩阵),E是专家个数,K是特征维度,N是输出维度。
- :计算矩阵乘时的辅助矩阵(生成辅助矩阵的计算过程间下文)。
- :分组权重矩阵(右矩阵)的逐通道缩放因子,E是专家个数,K_group_num 是在K轴维度上的分组数,N是输出维度。
- :输入矩阵(左矩阵)的逐token缩放因子,M是总token 数。
- :前缀和的分组索引列表。
- 输出:
- :量化后的输出矩阵。
- :量化缩放因子。
- 计算过程
1.根据groupList[i]确定当前分组的 token ,。
- 分组逻辑与A8W8相同。
2.生成辅助矩阵(bias)的计算过程(请注意bias部分计算为离线生成作为输入,并非算子内部完成):
当为per-channel量化(为2维):
当为per-group量化(为3维):
注:
3.根据分组确定的入参进行如下计算:
3.1.将左矩阵,转变为高低位 两部分的
3.2.做矩阵乘时,使能per-channel或per-group量化 per-channel:
per-group:
3.3.将高低位的矩阵乘结果还原为整体的结果
其中
3.量化输出结果
- 定义:
- 量化场景(A8W8):
函数原型
每个算子分为,必须先调用“aclnnGroupedMatmulSwigluQuantGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnGroupedMatmulSwigluQuant”接口执行计算。
[object Object][object Object]
aclnnGroupedMatmulSwigluQuantGetWorkspaceSize
参数说明:
x(aclTensor*,计算输入):左矩阵,公式中的,Device侧的aclTensor。shape支持2维,假设shape为[M,K],则K必须小于65536,数据类型支持INT8,支持ND,支持。
weight(aclTensor*,计算输入):权重矩阵,公式中的,Device侧的aclTensor。shape支持3维,数据类型支持INT8、INT4、INT32(INT32为适配用途,实际1个INT32会被解释为8个INT4数据),支持FRACTAL_NZ,支持。
bias(aclTensor*,计算输入):计算矩阵乘时的辅助矩阵,公式中的,shape支持2维,数据类型支持fp32,仅A8W4场景生效,A8W8场景需传空指针。
offset(aclTensor*,计算输入):per-channel非对称反量化的偏移,公式中的,shape支持2维,数据类型支持Float,预留输入,暂不支持,需要传空指针。
weightScale(aclTensor*,计算输入):右矩阵的量化因子,公式中的,Device侧的aclTensor。首轴长度需与
[object Object]的首轴维度相等,尾轴长度需要与weight还原为ND格式的尾轴相同,支持ND,支持。- A8W4场景:shape支持2或3维,数据类型支持UINT64。
- A8W8场景:shape支持2维,数据类型支持FLOAT、FLOAT16、BFLOAT16。
xScale(aclTensor*,计算输入):左矩阵的量化因子,公式中的,Device侧的aclTensor。shape支持1维,长度需与
[object Object]的首轴维度相等,数据类型支持FLOAT,支持ND,支持。groupList(aclTensor*,计算输入):指示每个分组参与计算的Token个数,公式中的,Device侧的aclTensor。shape支持1维,长度需与
[object Object]的首轴维度相等,数据类型支持INT64,支持ND,支持,grouplist中的最后一个值约束了输出数据的有效部分,详见功能说明中的计算过程部分。output(aclTensor*,计算输出):输出的量化结果,公式中的,Device侧的aclTensor。数据类型支持INT8,shape支持2维,Device侧的aclTensor。支持ND,支持。
outputScale(aclTensor*,计算输出):输出的量化因子,公式中的,Device侧的aclTensor。数据类型支持FLOAT,shape支持1维,Device侧的aclTensor。支持ND,支持。
outputOffset(aclTensor*,计算输出):输出的非对称量化的偏移,公式中的,Device侧的aclTensor,shape支持1维,数据类型支持FLOAT,预留输入,暂不支持,需要传空指针。
workspaceSize(uint64_t*,出参):返回用户需要在npu device侧申请的workspace大小。
executor(aclOpExecutor**,计算输出):返回op执行器,包含了算子计算流程。
返回值:
[object Object]
aclnnGroupedMatmulSwigluQuant
参数说明:
- workspace(void*,入参):在Device侧申请的workspace内存地址。
- workspaceSize(uint64_t,入参):在Device侧申请的workspace大小,由第一段接口aclnnGroupedMatmulSwigluQuantGetWorkspaceSize获取。
- executor(aclOpExecutor*,入参):op执行器,包含了算子计算流程。
- stream(aclrtStream,入参):指定执行任务的Stream。
返回值:
约束说明
- 仅支持内部使用,支持特定shape
调用示例
- aclnn单算子调用方式
通过aclnn单算子调用示例代码如下,仅供参考,具体编译和执行过程请参考。