aclnnQuantMatmulV2
该接口后续版本会废弃,请使用最新接口undefined,接口迁移方法参考本文档undefined。
产品支持情况
产品 | 是否支持 |
---|---|
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object] | √ |
[object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object] | √ |
[object Object]Atlas 200I/500 A2 推理产品[object Object] | × |
[object Object]Atlas 推理系列产品 [object Object] | × |
[object Object]Atlas 训练系列产品[object Object] | × |
功能说明
- 算子功能:完成量化的矩阵乘计算,最大支持输入维度为3维。相似接口有aclnnMm(仅支持2维Tensor作为输入的矩阵乘)和aclnnBatchMatMul(仅支持三维的矩阵乘,其中第一维是Batch维度)。
- 计算公式:
函数原型
每个算子分为undefined,必须先调用“aclnnQuantMatmulV2GetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnQuantMatmulV2”接口执行计算。
aclnnStatus aclnnQuantMatmulV2GetWorkspaceSize(const aclTensor *x1, const aclTensor *x2, const aclTensor *bias, const aclTensor *deqScale, bool adjX1, bool adjX2, aclTensor *out, uint64_t *workspaceSize, aclOpExecutor **executor)
aclnnStatus aclnnQuantMatmulV2(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, const aclrtStream stream)
aclnnQuantMatmulV2GetWorkspaceSize
参数说明:
- x1(aclTensor*, 计算输入):公式中的输入x1,device侧的aclTensor。数据类型支持INT8,不支持undefined,undefined支持ND,shape支持2~3维,在adjX1为false情况下各个维度表示:(batch,m,k),在adjX1为true情况下各个维度表示:(batch,k,m),batch可不存在。
- x2(aclTensor*, 计算输入):公式中的输入x2,device侧的aclTensor。数据类型支持INT8,不支持undefined,undefined支持ND,shape支持2~3维,在adjX2为false情况下各个维度表示:(batch,k,n),在adjX2为true情况下各个维度表示:(batch,n,k),batch可不存在,其中k与x1的shape中的k一致。
- bias(aclTensor*, 计算输入):公式中的输入bias,device侧的aclTensor。数据类型支持INT32,undefined支持ND,shape是1维(n,),n与x2的n一致。
- deqScale(aclTensor*, 计算输入):表示量化参数,公式中的输入deqScale,device侧的aclTensor。数据类型支持UINT64,undefined支持ND,shape是1维(t,),t = align(n, 16), 其中n与x2的n一致。
- adjX1(bool, 计算输入):表示x1的输入shape是否包含transpose。在adjX1为false情况下各个维度表示:(batch,m,k),在adjX1为true情况下各个维度表示:(batch,k,m),batch可不存在。
- adjX2(bool, 计算输入):表示x2的输入shape是否包含transpose。在adjX2为false情况下各个维度表示:(batch,k,n),在adjX2为true情况下各个维度表示:(batch,n,k),batch可不存在。
- out(aclTensor*, 计算输出):公式中的输出out,device侧的aclTensor。数据类型支持FLOAT16,支持undefined,undefined支持ND,shape支持2~3维,(batch,m,n),batch可不存在,支持x1与x2的batch维度broadcast,输出batch与broadcast之后的batch一致,m、n分别与x1的m、x2的n一致。
- workspaceSize(uint64_t*, 出参):返回需要在Device侧申请的workspace大小。
- executor(aclOpExecutor**, 出参):返回op执行器,包含了算子计算流程。
返回值:
aclnnStatus:返回状态码,具体参见undefined。
[object Object]
aclnnQuantMatmulV2
参数说明:
- workspace(void*, 入参):在Device侧申请的workspace内存地址。
- workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnQuantMatmulV2GetWorkspaceSize获取。
- executor(aclOpExecutor*, 入参):op执行器,包含了算子计算流程。
- stream(aclrtStream, 入参):指定执行任务的Stream。
返回值:
aclnnStatus:返回状态码,具体参见undefined。
约束说明
该接口迁移到aclnnQuantMatmulV4接口的方法:
- 输入x1,x2,bias,adjX1和adjX2可以直接转为aclnnQuantMatmulV4接口中的x1,x2,bias,transposeX1和transposeX2。
- 输入deqScale为UINT64的aclTensor,数据类型与aclnnQuantMatmulV4接口中的scale一致。aclnnQuantMatmulV2接口的deqScale shape是1维(t,),t = align(n, 16)。aclnnQuantMatmulV4接口中的scale shape是1维(t,),t = 1或n。直接将原始FLOAT型量化参数调用aclnnTransQuantParamV2输出数据类型为UINT64且shape为(n,)的aclTensor(参考undefined),记为scale,对标aclnnQuantMatmulV4接口中的scale。
- aclnnQuantMatmulV4接口中的可选输入offset/pertokenScaleOptional设置为nullptr。
- 接口参数设置为
aclnnQuantMatmulV4GetWorkspaceSize(x1, x2, scale, nullptr, nullptr, bias, adjX1, adjX2, out, workspaceSize, executor)
。
调用示例
示例代码如下,仅供参考,具体编译和执行过程请参考undefined。
[object Object]