开发者
资源

ReduceMax

产品支持情况

产品

是否支持

Atlas 350 加速卡

Atlas A3 训练系列产品/Atlas A3 推理系列产品

Atlas A2 训练系列产品/Atlas A2 推理系列产品

Atlas 200I/500 A2 推理产品

x

Atlas 推理系列产品AI Core

x

Atlas 推理系列产品Vector Core

x

Atlas 训练系列产品

x

功能说明

对一个多维向量在指定的维度求最大值。

定义指定计算的维度(Reduce轴)为R轴,非指定维度(Normal轴)为A轴。如下图所示,对shape为(2, 3)的二维矩阵进行运算,指定在第一维求最大值,输出结果为[4, 5, 6];指定在第二维求最大值,输出结果为[3, 6]。第一维是外层轴,简称外轴;第二维是内层轴,简称内轴。

图1 ReduceMax按第一个维度计算示例
图2 ReduceMax按最后一个维度计算示例

函数原型

  • 通过sharedTmpBuffer入参传入临时空间
    1
    2
    template <class T, class pattern, bool isReuseSource = false>
    __aicore__ inline void ReduceMax(const LocalTensor<T>& dstTensor, const LocalTensor<T>& srcTensor, const LocalTensor<uint8_t>& sharedTmpBuffer, const uint32_t srcShape[], bool srcInnerPad)
    
  • 接口框架申请临时空间
    1
    2
    template <class T, class pattern, bool isReuseSource = false>
    __aicore__ inline void ReduceMax(const LocalTensor<T>& dstTensor, const LocalTensor<T>& srcTensor, const uint32_t srcShape[], bool srcInnerPad)
    

由于该接口的内部实现中涉及复杂的数学计算,需要额外的临时空间来存储计算过程中的中间变量。临时空间支持开发者通过sharedTmpBuffer入参传入接口框架申请两种方式。

  • 通过sharedTmpBuffer入参传入,使用该tensor作为临时空间进行处理,接口框架不再申请。该方式开发者可以自行管理sharedTmpBuffer内存空间,并在接口调用完成后,复用该部分内存,内存不会反复申请释放,灵活性较高,内存利用率也较高。
  • 接口框架申请临时空间,开发者无需申请,但是需要预留临时空间的大小。

通过sharedTmpBuffer传入的情况,开发者需要为tensor申请空间;接口框架申请的方式,开发者需要预留临时空间。临时空间大小BufferSize的获取方式如下:通过GetReduceMaxMaxMinTmpSize中提供的接口获取需要预留空间范围的大小。

参数说明

表1 模板参数说明

参数名

描述

T

操作数的数据类型。

Atlas 350 加速卡,支持的数据类型为:int8_t、uint8_t、int16_t、uint16_t、half、bfloat16_t、int32_t、uint32_t、float、int64_t、uint64_t。

Atlas A3 训练系列产品/Atlas A3 推理系列产品,支持的数据类型为:half、float。

Atlas A2 训练系列产品/Atlas A2 推理系列产品,支持的数据类型为:half、float。

pattern

用于指定ReduceMax计算轴,包括Reduce轴和Normal轴。pattern由与向量维度数量相同的A、R字母组合形成,字母A表示Normal轴,R表示Reduce轴。例如,AR表示对二维向量进行ReduceMax计算:第一维是Normal轴,第二维是Reduce轴,即对第二维数据求最大值。

pattern是定义在AscendC::Pattern::Reduce命名空间下的结构体,其成员变量用户无需关注。

pattern当前只支持取值为AR和RA。

isReuseSource

是否允许修改源操作数,默认值为false。如果开发者允许源操作数被改写,可以使能该参数,使能后能够节省部分内存空间。

设置为true,则本接口内部计算时复用src的内存空间,节省内存空间;设置为false,则本接口内部计算时不复用src的内存空间。

isReuseSource的使用样例请参考更多样例

表2 接口参数说明

参数名

输入/输出

描述

dstTensor

输出

目的操作数。

类型为LocalTensor,支持的TPosition为VECIN/VECCALC/VECOUT。

srcTensor

输入

源操作数。

类型为LocalTensor,支持的TPosition为VECIN/VECCALC/VECOUT。

源操作数的数据类型需要与目的操作数保持一致。

sharedTmpBuffer

输入

临时缓存。

类型为LocalTensor,支持的TPosition为VECIN/VECCALC/VECOUT。

用于ReduceMax内部复杂计算时存储中间变量,由开发者提供。

临时空间大小BufferSize的获取方式请参考GetReduceMaxMaxMinTmpSize

srcShape

输入

uint32_t类型的数组,表示源操作数的shape信息。该shape的维度必须和模板参数pattern的维度一致,例如,pattern为AR,该shape维度只能是二维。

Atlas 350 加速卡,当前只支持二维shape。

Atlas A3 训练系列产品/Atlas A3 推理系列产品,当前只支持二维shape。

Atlas A2 训练系列产品/Atlas A2 推理系列产品,当前只支持二维shape。

srcInnerPad

输入

表示实际需要计算的最内层轴数据是否32Bytes对齐。

Atlas 350 加速卡,该参数预留。接口内由参数srcShape和pattern计算最内层轴数据是否32Bytes对齐。

Atlas A3 训练系列产品/Atlas A3 推理系列产品,当前只支持true。

Atlas A2 训练系列产品/Atlas A2 推理系列产品,当前只支持true。

返回值说明

约束说明

  • 操作数地址对齐要求请参见通用地址对齐约束
  • 当srcInnerPad为True时,输入向量的内轴必须为32字节的整数倍。当原始向量的内轴长度n占据的字节长度不是32的整数倍时,需要开发者将其向上补齐到32的整数倍。开发者自行padding补齐后的内轴大小为inner = (n * sizeof(T) + 32 - 1) / 32 * 32 / sizeof(T)。
  • 不支持源操作数与目的操作数地址重叠。
  • 不支持sharedTmpBuffer与源操作数和目的操作数地址重叠。

调用示例

完整的算子样例请参考ReduceMax算子样例

  • 内轴32Bytes对齐
    1
    2
    3
    uint32_t shape[] = { 2, 8 };
    constexpr bool isReuse = true;
    AscendC::ReduceMax<float, AscendC::Pattern::Reduce::AR, isReuse>(dstLocal, srcLocal, tmp, shape, true); // tmp为传入的临时空间大小,shape为srcLocal输入的shape, true表示 地址是否32B对齐
    

    结果示例如下:

    1
    2
    3
    4
    5
    6
    7
    输入输出的数据类型为float
    输入数据(src): 
    [[ 0.0 4.0 2.0 0.0 -1.0 2.0 -1.0 7.0],
     [ 0.0 1.0 -9.0 2.0 2.0 2.0 8.0 3.0]]
    输入patternAR
    输入shape(2,8)
    输出数据(dst): [7.0 8.0]
    
  • 内轴非32Bytes对齐
    数据类型为half,输入shape是[2,5],输入pattern是AR。
    1
    2
    uint32_t shape[2] = {2, 5};
    ReduceMax<T, AscendC::Pattern::Reduce::AR, false>(dstLocal, srcLocal, tmp, shape, true);
    

    结果示例如下:

    1
    2
    3
    4
    5
    6
    7
    原始输入输出的数据类型为half
    原始输入数据(src): 
    [[ 0.0 4.0 2.0 0.0 -1.0],
     [ 0.0 1.0 -9.0 2.0 2.0]]
    输入patternAR
    原始输入shape(2,5)
    输出数据(dst): [4.0 2.0]