aclnnQuantMatmul
支持的产品型号
- Atlas 训练系列产品。
- Atlas A2训练系列产品。
接口原型
每个算子分为,必须先调用“aclnnQuantMatmulGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnQuantMatmul”接口执行计算。
aclnnStatus aclnnQuantMatmulGetWorkspaceSize(const aclTensor *x1, const aclTensor *x2, const aclTensor *bias, float deqScale, const aclTensor *out, uint64_t *workspaceSize, aclOpExecutor **executor)
aclnnStatus aclnnQuantMatmul(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)
功能描述
算子功能:完成量化的矩阵乘计算,最小支持维度为2维,最大支持输入维度为3维。
相似接口有aclnnMm(仅支持2维Tensor作为输入的矩阵乘)和aclnnBatchMatMul(仅支持三维的矩阵乘,其中第一维是Batch维度)。
计算公式:
aclnnQuantMatmulGetWorkspaceSize
参数说明
- x1(const aclTensor *, 计算输入):Device侧的2维至3维aclTensor,维度与x2一致,不支持broadcast,支持ND,数据类型支持INT8,且数据类型需要与x2满足。
- x2(const aclTensor *, 计算输入):Device侧的2维至3维aclTensor,维度与x1一致,不支持broadcast,支持ND,数据类型支持INT8,且数据类型需要与x1满足。
- bias(const aclTensor *, 计算输入):Device侧的1维Tensor,shape支持一维(n, ),公式输入bias,数据类型支持INT32,支持ND。该Bias是经过量化特殊处理过的Bias。 量化特殊处理过程:
- deqScale(float, 计算输入):公式中的输入depScale,量化参数。
- out(const aclTensor *, 计算输出):Device侧的aclTensor,数据类型支持FLOAT16,Shape需要是x1与x2经过推导之后的Shape,支持ND
- workspaceSize(uint64_t *, 出参):返回用户需要在Device侧申请的workspace大小。
- executor(aclOpExecutor **, 出参):返回op执行器,包含了算子计算流程。
返回值:
[object Object]
aclnnQuantMatmul
参数说明:
- workspace(void *, 入参):在Device侧申请的workspace内存地址。
- workspaceSize(uint64_t, 入参):在Device侧申请的workspace大小,由第一段接口aclnnQuantMatmulGetWorkspaceSize获取。
- executor(aclOpExecutor *, 入参):op执行器,包含了算子计算流程。
- stream(const aclrtStream, 入参):指定执行任务的 AscendCL Stream流。
约束与限制
无。
调用示例
[object Object]