SoftMax
产品支持情况
| 
          产品  | 
        
          是否支持  | 
       
|---|---|
| 
          | 
        
          √  | 
       
| 
          | 
        
          √  | 
       
| 
          | 
        
          √  | 
       
| 
          | 
        
          √  | 
       
| 
          | 
        
          x  | 
       
| 
          | 
        
          x  | 
       
功能说明
将输入tensor[m0, m1, ...mt, n](t大于等于0)的非尾轴长度相乘的结果看作m,则输入tensor的shape看作[m, n]。对输入tensor[m, n]按行做如下SoftMax计算:

为方便理解,通过Python脚本实现的方式,表达其计算公式(以输入为ND格式为例)如下,其中src是源操作数(输入),dst、sum、max为目的操作数(输出)。
          1 2 3 4 5 6 7 8 9  | 
         
          def softmax(src): #基于last轴进行rowmax(按行取最大值)处理 max = np.max(src, axis=-1, keepdims=True) sub = src - max exp = np.exp(sub) #基于last轴进行rowsum(按行求和)处理 sum = np.sum(exp, axis=-1, keepdims=True) dst = exp / sum return dst, max, sum  | 
        
当输入的数据排布格式不同时,内部的reduce过程会有所不同:当输入为ND格式时,内部的reduce过程按last轴进行;当输入为NZ格式时,内部的reduce过程按照last轴和first轴进行,reduce过程如下图所示:
    实现原理
以float类型,ND格式,shape为[m, k]的输入Tensor为例,描述SoftMax高阶API内部算法框图,如下图所示。
    计算过程分为如下几步,均在Vector上进行:
- reducemax步骤:对输入x的每一行数据求最大值得到[m, 1]的结果,计算结果会保存到一个临时空间temp中;
 - broadcast步骤:对temp中的数据[m, 1]做一个按datablock为单位的填充,比如float类型下,把[m, 1]扩展成[m, 8],同时输出max;
 - sub步骤:对输入x的所有数据按行减去max;
 - exp步骤:对sub之后的所有数据求exp;
 - reducesum步骤:对exp后的结果的每一行数据求和得到[m, 1],计算结果会保存到临时空间temp中;
 - broadcast步骤:对temp([m, 1])做一个按datablock为单位的填充,比如float类型下,把[m, 1]扩展成[m, 8],同时输出sum;
 - div步骤:对exp后的结果的所有数据按行除以sum,得到最终结果。
 
函数原型
- 接口框架申请临时空间 
      
- LocalTensor的数据类型相同 
        
1 2
template <typename T, bool isReuseSource = false, bool isBasicBlock = false, bool isDataFormatNZ = false, const SoftmaxConfig& config = SOFTMAX_DEFAULT_CFG> __aicore__ inline void SoftMax(const LocalTensor<T>& dstTensor, const LocalTensor<T>& sumTensor, const LocalTensor<T>& maxTensor, const LocalTensor<T>& srcTensor, const SoftMaxTiling& tiling, const SoftMaxShapeInfo& softmaxShapeInfo = {})
 
- LocalTensor的数据类型不同 
        
1 2
template <typename T, bool isReuseSource = false, bool isBasicBlock = false, bool isDataFormatNZ = false, const SoftmaxConfig& config = SOFTMAX_DEFAULT_CFG> __aicore__ inline void SoftMax(const LocalTensor<half>& dstTensor, const LocalTensor<float>& sumTensor, const LocalTensor<float>& maxTensor, const LocalTensor<half>& srcTensor, const SoftMaxTiling& tiling, const SoftMaxShapeInfo& softmaxShapeInfo = {})
 
- 不带sumTensor和maxTensor参数 
        
1 2
template <typename T, bool isReuseSource = false, bool isBasicBlock = false, const SoftmaxConfig& config = SOFTMAX_DEFAULT_CFG> __aicore__ inline void SoftMax(const LocalTensor<T>& dstTensor, const LocalTensor<T>& srcTensor, const SoftMaxTiling& tiling, const SoftMaxShapeInfo& softmaxShapeInfo = {})
 
 - LocalTensor的数据类型相同 
        
 - 通过sharedTmpBuffer入参传入临时空间 
      
- LocalTensor的数据类型相同 
        
1 2
template <typename T, bool isReuseSource = false, bool isBasicBlock = false, bool isDataFormatNZ = false, const SoftmaxConfig& config = SOFTMAX_DEFAULT_CFG> __aicore__ inline void SoftMax(const LocalTensor<T>& dstTensor, const LocalTensor<T>& sumTensor, const LocalTensor<T>& maxTensor, const LocalTensor<T>& srcTensor, const LocalTensor<uint8_t>& sharedTmpBuffer, const SoftMaxTiling& tiling, const SoftMaxShapeInfo& softmaxShapeInfo = {})
 
- LocalTensor的数据类型不同 
        
1 2
template <typename T, bool isReuseSource = false, bool isBasicBlock = false, bool isDataFormatNZ = false, const SoftmaxConfig& config = SOFTMAX_DEFAULT_CFG> __aicore__ inline void SoftMax(const LocalTensor<half>& dstTensor, const LocalTensor<float>& sumTensor, const LocalTensor<float>& maxTensor, const LocalTensor<half>& srcTensor, const LocalTensor<uint8_t>& sharedTmpBuffer, const SoftMaxTiling& tiling, const SoftMaxShapeInfo& softmaxShapeInfo = {})
 
- 不带sumTensor和maxTensor参数 
        
1 2
template <typename T, bool isReuseSource = false, bool isBasicBlock = false, const SoftmaxConfig& config = SOFTMAX_DEFAULT_CFG> __aicore__ inline void SoftMax(const LocalTensor<T>& dstTensor, const LocalTensor<T>& srcTensor, const LocalTensor<uint8_t>& sharedTmpBuffer, const SoftMaxTiling& tiling, const SoftMaxShapeInfo& softmaxShapeInfo = {})
 
 - LocalTensor的数据类型相同 
        
 
由于该接口的内部实现中涉及复杂的计算,需要额外的临时空间来存储计算过程中的中间变量。临时空间支持接口框架申请和开发者通过sharedTmpBuffer入参传入两种方式。
- 接口框架申请临时空间,开发者无需申请,但是需要预留临时空间的大小。
 
- 通过sharedTmpBuffer入参传入,使用该tensor作为临时空间进行处理,接口框架不再申请。该方式开发者可以自行管理sharedTmpBuffer内存空间,并在接口调用完成后,复用该部分内存,内存不会反复申请释放,灵活性较高,内存利用率也较高。具体内存复用方式可参考算子与高阶API共享临时Buffer。
 
接口框架申请的方式,开发者需要预留临时空间;通过sharedTmpBuffer传入的情况,开发者需要为tensor申请空间。临时空间大小BufferSize的获取方式如下:通过SoftMax/SimpleSoftMax Tiling中提供的GetSoftMaxMaxTmpSize/GetSoftMaxMinTmpSize接口获取所需最大和最小临时空间大小,最小空间可以保证功能正确,最大空间用于提升性能。
参数说明
| 
          参数名  | 
        
          描述  | 
       ||||
|---|---|---|---|---|---|
| 
          T  | 
        
          操作数的数据类型。  | 
       ||||
| 
          isReuseSource  | 
        
          该参数预留,传入默认值false即可。  | 
       ||||
| 
          isBasicBlock  | 
        
          srcTensor和dstTensor的shape信息和Tiling切分策略满足基本块要求的情况下,可以使能该参数用于提升性能,默认不使能。是否满足基本块的要求,可以采用如下两种方式之一判断: 
 针对  | 
       ||||
| 
          isDataFormatNZ  | 
        
          当前输入输出的数据格式是否为NZ格式,默认数据格式为ND,即默认取值为false。 针对  | 
       ||||
| 
          config  | 
        
          结构体模板参数,此参数可选配,SoftmaxConfig类型,具体定义如下。 
 配置示例如下。 
 此参数一般用于配合kernel侧tiling计算的接口使用。 注意:设置了oriSrcM与oriSrcK后,模板参数isBasicBlock不生效,计算数据是否为基本块由API内部判断并处理。 针对 针对  | 
       
| 
          参数名  | 
        
          输入/输出  | 
        
          描述  | 
       ||
|---|---|---|---|---|
| 
          dstTensor  | 
        
          输出  | 
        
          目的操作数。 类型为LocalTensor,支持的TPosition为VECIN/VECCALC/VECOUT。 dst的shape和源操作数src一致。  | 
       ||
| 
          sumTensor  | 
        
          输出  | 
        
          目的操作数。 类型为LocalTensor,支持的TPosition为VECIN/VECCALC/VECOUT。 用于保存SoftMax计算过程中reducesum的结果。 
  | 
       ||
| 
          maxTensor  | 
        
          输出  | 
        
          目的操作数。 类型为LocalTensor,支持的TPosition为VECIN/VECCALC/VECOUT。 用于保存SoftMax计算过程中reducemax的结果。 
  | 
       ||
| 
          srcTensor  | 
        
          输入  | 
        
          源操作数。 类型为LocalTensor,支持的TPosition为VECIN/VECCALC/VECOUT。 last轴长度需要32Byte对齐。  | 
       ||
| 
          sharedTmpBuffer  | 
        
          输入  | 
        
          临时空间。 类型为LocalTensor,支持的TPosition为VECIN/VECCALC/VECOUT。 接口内部复杂计算时用于存储中间变量,由开发者提供。 临时空间大小BufferSize的获取方式请参考SoftMax/SimpleSoftMax Tiling。  | 
       ||
| 
          tiling  | 
        
          输入  | 
        
          SoftMax计算所需Tiling信息,Tiling信息的获取请参考SoftMax/SimpleSoftMax Tiling。  | 
       ||
| 
          softmaxShapeInfo  | 
        
          输入  | 
        
          src的shape信息。SoftMaxShapeInfo类型,具体定义如下: 
 需要注意,当输入输出的数据格式为NZ格式时,尾轴长度为reduce轴长度即图2中的W0*W1,非尾轴为H0*H1。  | 
       
返回值说明
无
约束说明
- src和dst的Tensor空间可以复用。
 - sumTensor和maxTensor为输出,并且last轴长度必须固定32Byte,非last轴大小需要和src以及dst保持一致。
 - sumTensor和maxTensor的数据类型需要保持一致。
 
- 操作数地址对齐要求请参见通用地址对齐约束。
 - 不支持sharedTmpBuffer与源操作数和目的操作数地址重叠。
 - 当参数softmaxShapeInfo中srcM != oriSrcM 或者 srcK != oriSrcK时,开发者需要对GM上的原始输入(oriSrcM, oriSrcK)在M或K方向补齐数据到(srcM, srcK),补齐的数据会参与部分运算,在输入输出复用的场景下,API的计算结果会覆盖srcTensor中补齐的原始数据,在输入输出不复用的场景下,API的计算结果会覆盖dstTensor中对应srcTensor补齐位置的数据。
 
调用示例
本样例中输入src和输出dst的shape大小为[320,64],中间计算结果sumTensor和maxTensor的shape大小为[320,16],数据类型均为half,输入输出的数据排布格式为ND,src和dst空间不复用,不使能基本块。更多算子样例请参考softmax算子样例。
          1 2 3 4 5 6 7 8 9 10 11 12 13 14 15  | 
         
          AscendC::LocalTensor<T> srcLocal = inQueueSrc.DeQue<T>(); AscendC::LocalTensor<T> sumTempLocal = sumQueue.AllocTensor<T>(); AscendC::LocalTensor<T> maxTempLocal = maxQueue.AllocTensor<T>(); AscendC::LocalTensor<T> dstLocal = outQueueDst.AllocTensor<T>(); AscendC::SoftMaxShapeInfo srcShape = {height, width, height, width}; AscendC::SoftMax<T>(dstLocal, sumTempLocal, maxTempLocal, srcLocal, tiling, srcShape); // AscendC::SoftMax<T, false, false, false, static_config>(dstLocal, sumTempLocal, // maxTempLocal, srcLocal, tiling, srcShape); 使用SoftmaxConfig类型的参数static_config,传入模板参数将shape常量化 outQueueDst.EnQue<T>(dstLocal); maxQueue.FreeTensor(maxTempLocal); sumQueue.FreeTensor(sumTempLocal); inQueueSrc.FreeTensor(srcLocal);  | 
        
