aclnnAscendAntiQuant
支持的产品型号
- Atlas 推理系列产品。
- Atlas A2训练系列产品。
接口原型
每个算子分为,必须先调用“aclnnAscendAntiQuantGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnAscendAntiQuant”接口执行计算。
aclnnStatus aclnnAscendAntiQuantGetWorkspaceSize(const aclTensor* self, const aclTensor* scale, const aclTensor* offset, int64_t dstType, bool sqrtMode, const aclTensor* out, uint64_t workspaceSize, aclOpExecutor* executor)
aclnnStatus aclnnArgsort(void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)
功能描述
计算公式:
sqrt_mode为true,scale = scale * scale。
aclnnAscendAntiQuantGetWorkspaceSize
参数说明:
- self(const aclTensor*, 输入):Device侧的aclTensor,需要做反向量化的输入。数据类型支持:INT8。支持,支持ND。
- scale(const aclTensor*, 输入):Device侧的aclTensor,反向量化中的scale值。数据类型支持:FLOAT, BFLOAT16(仅Atlas A2训练系列产品支持)。scale为1维张量,shape的大小需要为1或等于输入self的最后一个维度的大小。支持,支持ND。
- offset(const aclTensor*, 输入):可选参数, Device侧的aclTensor,反向量化中的offset值。offset为1维张量,shape的大小需要为1或等于输入self的最后一个维度的大小。数据类型支持:FLOAT, BFLOAT16(仅Atlas A2训练系列产品支持),且数据类型与scale的数据类型一致。支持,支持ND。
- dstType(int64_t, 属性): 指定输出的数据类型,该属性数据类型支持:INT64, 默认值DT_FLOAT16,支持取值DT_FLOAT16, DT_BF16
- sqrtMode(bool, 属性): 指定scale参与计算的逻辑,当取值为true时,scale=scale*scale,数据类型支持:BOOL, 默认值false。
- out(aclTensor*, 输出Tensor): Device侧的aclTensor, 数据类型支持FLOAT16, BFLOAT16(仅Atlas A2训练系列产品支持)。Shape与self一致。支持空Tensor,支持。支持ND。
- workspaceSize(uint64_t*, 出参):返回需要在npu device侧申请的workspace大小。
- executor(aclOpExecutor**, 出参):返回op执行器,包含了算子计算流程。
返回值:
[object Object]
aclnnAscendAntiQuant
参数说明:
- workspace:在Device侧申请的workspace内存地址。
- workspaceSize:在Device侧申请的workspace大小,由第一段接口aclnnArgsortGetWorkspaceSize获取。
- executor:op执行器,包含了算子计算流程。
- stream:指定执行任务的 AscendCL Stream流。
返回值:
约束与限制
Atlas 推理系列产品系列不支持scale、offset及输出为bf16。
调用示例
[object Object]