昇腾社区首页
中文
注册
开发者
下载

aclnnFlashAttentionVarLenScoreV3

产品支持情况

[object Object]undefined

功能说明

  • 接口功能:训练场景下,使用FlashAttention算法实现self-attention(自注意力)的计算。跟的区别是该接口支持query/key多输入,即query、queryRope、key和keyRope作为输入。非多输入场景使用或其他接口。

  • 计算公式:

    注意力的正向计算公式如下:

    attention_out=Dropout(Softmax(Mask(scale(querykeyT+queryRopekeyRopeT)+pse),atten_mask),keep_prob)valueattention\_out=Dropout(Softmax(Mask(scale*(query*key^T + queryRope*keyRope^T) + pse),atten\_mask),keep\_prob)*value

函数原型

每个算子分为,必须先调用“aclnnFlashAttentionVarLenScoreV3GetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnFlashAttentionVarLenScoreV3”接口执行计算。

[object Object]
[object Object]

aclnnFlashAttentionVarLenScoreV3GetWorkspaceSize

  • 参数说明:

    [object Object]
  • 返回值:

    aclnnStatus:返回状态码,具体参见

    第一段接口完成入参校验,出现以下场景时报错:

    [object Object]

aclnnFlashAttentionVarLenScoreV3

  • 参数说明:

    [object Object]
  • 返回值:

    返回aclnnStatus状态码,具体参见

约束说明

  • 确定性计算:
    • aclnnFlashAttentionVarLenScoreV3默认确定性实现。
  • 该接口与PyTorch配合使用时,需要保证CANN相关包与PyTorch相关包的版本匹配
  • 输入query、queryRope、key、keyRope、value的B:batchsize必须相等。
  • 输入query、key、value的D:Head-Dim必须满足(qD == kD && kD >= vD),D必须是8的整数倍。
  • 输入queryRope、keyRope的D:Head-Dim必须满足(qRopeD == kRopeD),D必须是8的整数倍,且必须小于等于query、key和value的D。
  • 输入query、key、value的inputLayout必须为TND。
  • 关于数据shape的约束,其中:
    • T:取值范围为1~1M。
    • N:取值范围为1~256。
    • D:取值范围为1~768。
    • 数据shape必须为TND。
    • KeepProb必须为1。
  • query、key、value数据排布格式仅支持TND,T是B和S合轴紧密排列的数据(每个batch的SeqLenQ和SeqLenKV),其中B(Batch)表示输入样本批量大小、S(Seq-Length)表示输入样本序列长度、H(Head-Size)表示隐藏层的大小、N(Head-Num)表示多头数、D(Head-Dim)表示隐藏层最小的单元尺寸,且满足D=H/N。
  • sparseMode的约束如下:
    • 当所有的attenMaskOptional的shape小于2048且相同的时候,建议使用default模式,来减少内存使用量;
    • 配置为1、2、3、5时,用户配置的preTokens、nextTokens不会生效;
    • 配置为0、4时,须保证attenMaskOptional与preTokens、nextTokens的范围一致。
    • 用户不特意指定时建议传入0。
    • sparse不同模式的详细说明请参见
    • 配置为3时,不支持无效行计算,需要满足每个batch的Sq<=Skv。
    • 配置为7时,不支持可选输入realShiftOptional。
    • 配置为8时,当每个sequence的q、kv等长时支持可选输入realShiftOptional,针对全局做pse生成。支持q方向进行外切,需要外切前每个sequence的q、kv等长,外切后传入的actualSeqQLenOptional。
  • 部分场景下,如果计算量过大可能会导致算子执行超时(aicore error类型报错,errorStr为:timeout or trap error),此时建议做轴切分处理,注:这里的计算量会受B、S、N、D等参数的影响,值越大计算量越大。
  • band场景,preTokens和nextTokens之间必须要有交集。
  • prefixOptional稀疏计算场景即sparseMode=6,当Sq > Skv时,prefix的N值取值范围[0, Skv],当Sq <= Skv时,prefix的N值取值范围[Skv-Sq, Skv]。 [0] - actualSeqKvLenOptional[0] + qStartIdxOptional - kvStartIdxOptional == 0(本功能属实验性功能)。
  • actualSeqQLenOptional输入支持某个Batch上的S长度为0,此时不支持可选输入realShiftOptional。actualSeqQLenOptional的长度取值范围为1~2K。当存在prefixOptional输入的时候,其长度最大支持1K。
  • attenMaskOptional输入不支持补pad,即attenMaskOptional中不能存在某一行全1的场景。
  • 支持actualSeqQLenOptional中某个Batch上的S长度为0;如果存在S为0的情况,不支持pse输入, 假设真实的S长度为[2,2,0,2,2],则传入的actualSeqQLenOptional为[2,4,4,6,8]。
  • pseType只能为0或者1。
  • realShiftOptional必须为空。
  • dropMaskOptional必须为空。
  • attenMaskOptional不能为空。

调用示例

调用示例代码如下,仅供参考,具体编译和执行过程请参考

[object Object]