选择低延迟指令,优化归约操作性能
【优先级】高
【描述】
指令执行延迟(Instruction Execution Latency) 指的是一条指令从开始执行到完全完成(即所有操作结束,结果可用)所消耗的时间,它直接影响程序的响应速度和实时性。在延迟敏感的场景中,降低指令执行延迟是提升性能的关键。下文归约操作为例,介绍了几种归约方案的性能对比,便于开发者在使用归约指令时,能够根据具体的数据规模和场景,选择性能更高的方案。
二分累加方案和归约类指令方案的对比
根据单指令性能测试数据(开发者可以自行测试)分析,WholeReduceSum等归约指令的延迟时间约为Add指令的2-5倍。因此,对于连续数据的归约操作,可以采用Add指令和WholeReduceSum指令的组合,以优化整体性能。该方案简称为二分累加方案,具体方案说明如下:
- 二分累加:将数据一分为二,使用Add指令将两部分数据相加;将相加后的结果再次一分为二,继续使用Add指令进行累加,重复此过程。
- 当二分累加后的数据量小于等于256Byte(一条指令一个Repeat的数据操作量),使用WholeReduceSum指令,一次执行得到归约结果。
假设输入数据的数据类型为float,shape为(5, 256),下图展示了一行数据的执行过程:

将以上过程,针对每一行,各自执行,得到最终归约结果,即shape为(m, k)的数据,归约完成后,shape为(m, 1)。
由于ReduceSum接口是由多种指令组合实现,通常来说,数据量较大,循环次数较多的场景,二分累加方案性能 > WholeReduceSum单指令操作性能 > ReduceSum接口性能。而小数据量或者特殊shape下的场景,需要拆分开来,依据指令执行时间和指令执行数目等条件,具体问题具体分析。
下文给出了二分累加方案和归约类指令方案的核心代码片段和性能数据对比。完整样例请参考ReduceCustom。
【性能数据】
输入shape为30000,数据类型为float时,如下示例的性能数据对比如下,数据单位为cycle,使用GetSystemCycle接口获取。
二分累加方案 |
WholeReduceSum单指令操作 |
---|---|
172 |
242 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 |
__aicore__ inline void BinaryReduceSumImpl(const AscendC::LocalTensor<float>& dst, const AscendC::LocalTensor<float>& src, const uint32_t bsLength, const uint32_t hLength) { // src为二维数据,shape为(bsLength, hLength),dst的shape为(bsLength,1) AscendC::BinaryRepeatParams binaryParams; AscendC::UnaryRepeatParams unaryParams; AscendC::SetMaskCount(); for (uint32_t i = 0; i < bsLength; i++) { AscendC::LocalTensor<float> srcTmp = src[i * hLength]; AscendC::LocalTensor<float> dstTmp = dst[i * hLength]; uint32_t totalNum = hLength / 16 * 16; uint32_t remaining = hLength - totalNum; AscendC::LocalTensor<float> remainingTensor = srcTmp[totalNum]; while (totalNum > ONE_REPEAT_FLOAT_SIZE) { uint32_t halfNum = AscendC::DivCeil(totalNum, 16) * DEFAULT_REP_STRIDE; AscendC::SetVectorMask<uint8_t, AscendC::MaskMode::COUNTER>(0, totalNum - halfNum); AscendC::Add<float, false>(dstTmp, srcTmp, srcTmp[halfNum], AscendC::MASK_PLACEHOLDER, 1, binaryParams); totalNum = halfNum; srcTmp = dstTmp; } if (remaining != 0 && hLength > ONE_REPEAT_FLOAT_SIZE) { AscendC::SetVectorMask<uint8_t, AscendC::MaskMode::COUNTER>(0, remaining); AscendC::Add<float, false>(dstTmp, dstTmp, remainingTensor, AscendC::MASK_PLACEHOLDER, 1, binaryParams); } AscendC::SetVectorMask<uint8_t, AscendC::MaskMode::COUNTER>(0, totalNum); AscendC::WholeReduceSum<float, false>(dstTmp, srcTmp, AscendC::MASK_PLACEHOLDER, 1, DEFAULT_BLK_STRIDE, DEFAULT_BLK_STRIDE, DEFAULT_REP_STRIDE); } AscendC::ResetMask(); AscendC::SetMaskNorm(); } |
【WholeReduceSum单指令操作】
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 |
__aicore__ inline void WholeReduceSumImpl(const AscendC::LocalTensor<float>& dst, const AscendC::LocalTensor<float>& src, const uint32_t bsLength, const uint32_t hLength) { // src为二维数据,shape为(bsLength, hLength),dst的shape为(bsLength,1) AscendC::SetMaskCount(); for (uint32_t i = 0; i < bsLength; i++) { uint32_t totalNum = hLength; AscendC::LocalTensor<float> srcTmp = src[i * hLength]; AscendC::LocalTensor<float> dstTmp = dst[i * hLength]; while (totalNum > 1) { AscendC::SetVectorMask<uint8_t, AscendC::MaskMode::COUNTER>(0, totalNum); AscendC::WholeReduceSum<float, false>(dstTmp, srcTmp, AscendC::MASK_PLACEHOLDER, 1, DEFAULT_BLK_STRIDE, DEFAULT_BLK_STRIDE, DEFAULT_REP_STRIDE); totalNum = AscendC::DivCeil(totalNum, ONE_REPEAT_FLOAT_SIZE); srcTmp = dstTmp; } } AscendC::ResetMask(); AscendC::SetMaskNorm(); } |
BlockReduceSum和WholeReduceSum归约方案对比
进一步测试分析可知,单指令BlockReduceSum的执行效率优于WholeReduceSum,因此,根据不同的shape,通过不同的指令组合,可以达到更佳的执行性能。
例如数据类型为float,shape大小为256的数据,可以通过如下三种方式得到归约结果:
- 使用两次WholeReduceSum;
- 使用三次BlockReduceSum;
- 一次BlockReduceSum操作加一次WholeReduceSum操作。
通过分析单指令性能数据(开发者可以自行测试)可知:一次BlockReduceSum操作加一次WholeReduceSum操作性能优于两次WholeReduceSum,同时也优于三次BlockReduceSum的方案。
下文给出了上面三种方式的核心代码片段和性能数据对比。完整样例请参考ReduceCustom。
【性能数据】
输入shape为256,数据类型为float。如下示例的性能数据如下:
两次WholeReduceSum |
三次BlockReduceSum |
一次WholeReduceSum加一次BlockReduceSum |
---|---|---|
13us |
13.94us |
8.44us |
【两次WholeReduceSum操作】
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 |
... static constexpr uint32_t REP_LEN = 256; TBuf<TPosition::VECCALC> calcBuf; pipe.InitBuffer(calcBuf, totalLength * sizeof(float)); AscendC::LocalTensor<float> tempTensor1 = calcBuf.Get<float>(); const uint32_t repeatNum = (totalLength * sizeof(DTYPE) + REP_LEN - 1) / REP_LEN; AscendC::SetMaskCount(); AscendC::SetVectorMask<float>(0, totalLength); AscendC::WholeReduceSum<float, false>(tempTensor1, xLocal, 1, AscendC::MASK_PLACEHOLDER, DEFAULT_BLK_STRIDE, DEFAULT_BLK_STRIDE, DEFAULT_REP_STRIDE); AscendC::PipeBarrier<PIPE_V>(); AscendC::SetVectorMask<float>(0, repeatNum); AscendC::WholeReduceSum<float, false>(zLocal, tempTensor1, 1, AscendC::MASK_PLACEHOLDER, DEFAULT_BLK_STRIDE, DEFAULT_BLK_STRIDE, DEFAULT_REP_STRIDE); AscendC::PipeBarrier<PIPE_V>(); AscendC::SetMaskNorm(); ... |
【三次BlockReduceSum操作】
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 |
... static constexpr uint32_t BLK_LEN = 32; TBuf<TPosition::VECCALC> calcBuf; constexpr uint32_t c0Count = BLK_LEN / sizeof(DTYPE_X); const uint32_t blockNum0 = (totalLength + c0Count - 1) / c0Count; const uint32_t blockNum1 = (blockNum0 + c0Count - 1) / c0Count; AscendC::SetMaskCount(); AscendC::SetVectorMask<DTYPE_X>(0, totalLength); AscendC::BlockReduceSum<DTYPE_X, false>(tempTensor1, xLocal, AscendC::MASK_PLACEHOLDER, 1, DEFAULT_BLK_STRIDE, DEFAULT_BLK_STRIDE, DEFAULT_REP_STRIDE); AscendC::PipeBarrier<PIPE_V>(); AscendC::SetVectorMask<DTYPE_X>(0, blockNum0); AscendC::BlockReduceSum<DTYPE_X, false>(tempTensor1, tempTensor1, AscendC::MASK_PLACEHOLDER, 1, DEFAULT_BLK_STRIDE, DEFAULT_BLK_STRIDE, DEFAULT_REP_STRIDE); AscendC::PipeBarrier<PIPE_V>(); AscendC::SetVectorMask<DTYPE_X>(0, blockNum1); AscendC::BlockReduceSum<DTYPE_X, false>(zLocal, tempTensor1, AscendC::MASK_PLACEHOLDER, 1, DEFAULT_BLK_STRIDE, DEFAULT_BLK_STRIDE, DEFAULT_REP_STRIDE); AscendC::PipeBarrier<PIPE_V>(); AscendC::SetMaskNorm(); ... |
【BlockReduceSum + WholeReduceSum操作】
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 |
... static constexpr uint32_t BLK_LEN = 32; TBuf<TPosition::VECCALC> calcBuf; pipe.InitBuffer(calcBuf, totalLength * sizeof(float)); AscendC::LocalTensor<float> tempTensor1 = calcBuf.Get<float>(); constexpr uint32_t c0Count = BLK_LEN / sizeof(float); const uint32_t blockNum0 = (totalLength + c0Count - 1) / c0Count; AscendC::SetMaskCount(); AscendC::SetVectorMask<float>(0, totalLength); AscendC::BlockReduceSum<float, false>(tempTensor1, xLocal, 1, AscendC::MASK_PLACEHOLDER, DEFAULT_BLK_STRIDE, DEFAULT_BLK_STRIDE, DEFAULT_REP_STRIDE); AscendC::PipeBarrier<PIPE_V>(); AscendC::SetVectorMask<float>(0, blockNum0); AscendC::WholeReduceSum<float, false>(zLocal, tempTensor1, 1, AscendC::MASK_PLACEHOLDER, DEFAULT_BLK_STRIDE, DEFAULT_BLK_STRIDE, DEFAULT_REP_STRIDE); AscendC::PipeBarrier<PIPE_V>(); AscendC::SetMaskNorm(); ... |