aclnnBitwiseAndScalar
支持的产品型号
- Atlas 训练系列产品。
- Atlas A2训练系列产品/Atlas 800I A2推理产品。
- Atlas 推理系列产品。
接口原型
aclnnBitwiseAndScalar和aclnnInplaceBitwiseAndScalar实现相同的功能,使用区别如下,请根据自身实际场景选择合适的算子。
- aclnnBitwiseAndScalar:需新建一个输出张量对象存储计算结果。
- aclnnInplaceBitwiseAndScalar:无需新建输出张量对象,直接在输入张量的内存中存储计算结果。
每个算子分为undefined,必须先调用“aclnnBitwiseAndScalarGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnBitwiseAndScalar”接口执行计算。
aclnnStatus aclnnBitwiseAndScalarGetWorkspaceSize(const aclTensor *self, const aclScalar *other, aclTensor *out, uint64_t *workspaceSize, aclOpExecutor **executor)
aclnnStatus aclnnBitwiseAndScalar(void *workspace, uint64_t workspaceSize, aclOpExecutor **executor, aclrtStream stream)
功能描述
算子功能:计算输入tensor中每个元素和输入标量的按位与结果。输入的tensor与other必须是整型或者BOOL型变量。当输入为BOOL时,计算逻辑与的结果。 计算公式:
aclnnBitwiseAndScalarGetWorkspaceSize
参数说明:
- self(const aclTensor*, 计算输入): 公式中的
selfRef
,数据类型支持INT16,UINT16,INT32,INT64,INT8,UINT8,BOOL,且数据类型需要与other满足数据类型推导规则(参见undefined)。支持undefined,undefined支持ND。 - other(const aclScalar*, 计算输入): 公式中的
other
,数据类型支持INT16,UINT16,INT32,INT64,INT8,UINT8,BOOL,且数据类型需要与self满足数据类型推导规则(参见undefined)。 - out(aclTensor*, 计算输出): 公式中的
out
,数据类型支持INT16,UINT16,INT32,INT64,INT8,UINT8,BOOL,且数据类型需要是self与other推导之后可转换的数据类型,shape需要与self保持一致,undefined支持ND。 - workspaceSize(uint64_t*, 出参): 返回需要在Device侧申请的workspace大小。
- executor(aclOpExecutor**, 出参): 返回op执行器,包含了算子计算流程。
- self(const aclTensor*, 计算输入): 公式中的
返回值:
aclnnStatus: 返回状态码,具体参见undefined。
[object Object]
aclnnBitwiseAndScalar
参数说明:
- workspace(void*, 入参): 在Device侧申请的workspace内存地址。
- workspaceSize(uint64_t, 入参): 在Device侧申请的workspace大小,由第一段接口aclnnBitwiseAndScalarGetWorkspaceSize获取。
- executor(aclOpExecutor*, 入参): op执行器,包含了算子计算流程。
- stream(aclrtStream, 入参): 指定执行任务的 AscendCL Stream流。
返回值:
aclnnStatus: 返回状态码,具体参见undefined。
约束与限制
无
调用示例
示例代码如下,仅供参考,具体编译和执行过程请参考undefined。
[object Object]