昇腾社区首页
中文
注册
开发者
下载

aclnnFlashAttentionScoreGradV3

产品支持情况

[object Object]undefined

功能说明

接口功能:训练场景下计算注意力的反向输出,即 的反向计算。该接口相较于 接口,新增sinkInOptional参数和dsinkOut输出:

[object Object]
Y=Dropout(Softmax(Mask(QKTd+pse),atten_mask),keep_prob)VY=Dropout(Softmax(Mask(\frac{QK^T}{\sqrt{d}}+pse),atten\_mask),keep\_prob)V

为方便表达,以变量SSPP表示计算公式:

S=Mask(QKTd+pse),atten_maskS=Mask(\frac{QK^T}{\sqrt{d}}+pse),atten\_mask P=Dropout(Softmax(S),keep_prob)P=Dropout(Softmax(S),keep\_prob) Y=PVY=PV

则注意力的反向计算公式为:

V=PTdYV=P^TdY Q=((dS)K)dQ=\frac{((dS)*K)}{\sqrt{d}} K=((dS)TQ)dK=\frac{((dS)^T*Q)}{\sqrt{d}}

其中增加sink之后计算逻辑见下,主要修改相关softmax_max和softmax_sum逻辑计算部分

S=Q@KTS = Q @ K^{T} m=max(sink,max(S))m = max(sink, max(S)) Attention=eSm@VeSm+SsinkmAttention = \frac{e^{S - m} @ V}{\sum e^{S-m} + S^{sink - m}} dSink=reduce(PdPSimpleSoftmax(sink,x_max,x_sum))dSink = reduce(-P * dP * SimpleSoftmax(sink, x\_max, x\_sum))

函数原型

每个算子分为,必须先调用“aclnnFlashAttentionScoreGradV3GetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnFlashAttentionScoreGradV3”接口执行计算。

[object Object]
[object Object]

aclnnFlashAttentionScoreGradV3GetWorkspaceSize

  • 参数说明:

    [object Object]
  • 返回值:

    返回aclnnStatus状态码,具体参见

    第一段接口完成入参校验,出现以下场景时报错:

    [object Object]

aclnnFlashAttentionScoreGradV3

  • 参数说明:

    [object Object]
  • 返回值:

    返回aclnnStatus状态码,具体参见

约束说明

  • 确定性计算:
    • aclnnFlashAttentionScoreGradV3默认非确定性实现,支持通过aclrtCtxSetSysParamOpt开启确定性。
  • 该接口与PyTorch配合使用时,需要保证CANN相关包与PyTorch相关包的版本匹配。
  • 输入query、key、value、dy的B:batchsize必须相等。
  • 输入query、key、value的D:Head-Dim必须满足(qD == kD && kD >= vD)。
  • 输入query、key、value、dy的inputLayout必须一致。
  • 输入key/value的shape除D外必须一致,在query/key/value的D大小相同的情况下,query/dy的shape必须一致。
  • 支持输入query/dy的N和key/value的N不相等,但必须成比例关系,即Nq/Nkv必须是非0整数,Nq取值范围1~256。
  • 关于数据shape的约束,以inputLayout的BSND、BNSD为例(BSH、SBH下H=N*D),其中:
    • B:取值范围为1~2M。带prefixOptional的时候B最大支持2K。
    • N:取值范围为1~256。
    • S:取值范围为1~1M。
    • D:取值范围为1~768。
    • KeepProb: 取值范围为(0, 1].
  • query、key、value数据排布格式支持从多种维度解读,其中B(Batch)表示输入样本批量大小、S(Seq-Length)表示输入样本序列长度、H(Head-Size)表示隐藏层的大小、N(Head-Num)表示多头数、D(Head-Dim)表示隐藏层最小的单元尺寸,且满足D=H/N。
  • pseShiftOptional:如果Sq大于1024的每个batch的Sq与Skv等长且是sparseMode为0、2、3的下三角掩码场景,可使能alibi位置编码压缩,此时只需要输入原始PSE最后1024行,实现内存优化,即alibi_compress = ori_pse[:, :, -1024:, :],具体如下:
    • 参数每个batch不相同时,shape为BNHSkv(H=1024)。
    • 每个batch相同时,shape为1NHSkv(H=1024)。
    • 如果pseType为2或3的时候,数据类型需为FLOAT32, 对应shape支持范围是[B,N]或[N]。
    • 如果不使能该参数,pseShiftOptional需要传入nullptr,pseType需要传入1。
  • innerPrecise: 当前0、1为保留配置值,2为使能无效行计算,其功能是避免在计算过程中存在整行mask进而导致精度有损失,但是该配置会导致性能下降。 如果算子可判断出存在无效行场景,会自动使能无效行计算,例如sparseMode为3,Sq > Skv场景。
  • pseType 各个取值含义[object Object]undefined
  • sparseMode的约束如下:
    • 当所有的attenMaskOptional的shape小于2048且相同的时候,建议使用default模式,来减少内存使用量;
    • 配置为1、2、3、5时,用户配置的preTokens、nextTokens不会生效;
    • 配置为0、4时,须保证attenMaskOptional与preTokens、nextTokens的范围一致。
    • 用户不特意指定时建议传入0。
    • sparse不同模式的详细说明请参见
  • 部分场景下,如果计算量过大可能会导致算子执行超时(aicore error类型报错,errorStr为:timeout or trap error) ,此时建议做轴切分处理,注:这里的计算量会受B、S、N、D等参数的影响,值越大计算量越大。
  • 关于softmaxMax与softmaxSum参数的约束:输入格式固定为[B, N, S, 8],TND的输入格式除外,此时为[T, N, 8],注:T=B*S。
  • headNum的取值必须和传入的Query中的N值保持一致。
  • band场景,preTokens和nextTokens之间必须要有交集。
  • prefixOptional稀疏计算场景即sparseMode=5或者sparseMode=6,当Sq > Skv时,prefix的N值取值范围[0, Skv],当Sq <= Skv时,prefix的N值取值范围[Skv-Sq, Skv]。
  • pseShiftOptional Sq大于1024时如果配置BNHS、1NHS,需要Sq和Skv等长。
  • sinkInOptional维度为1,长度需要与query的headnum相同。

调用示例

调用示例代码如下,仅供参考,具体编译和执行过程请参考

[object Object]