aclnnFlashAttentionVarLenScore
产品支持情况
功能说明
接口功能:训练场景下,使用FlashAttention算法实现self-attention(自注意力)的计算。跟接口的区别是该接口支持可变长S的计算,即可以一次传入多个长度不相等的sequence。使用此接口时,query,key和value使用TND的格式传入数据,其中T意为total number,表示其所有sequence的length总和,同时使用actualSeqQLenOptional与actualSeqKvLenOptional输入传入每个sequence依次的累积长度以区分不同sequence。每个sequence单独计算其注意力结果。
计算公式:
注意力的正向计算公式如下:
函数原型
每个算子分为,必须先调用“aclnnFlashAttentionVarLenScoreGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnFlashAttentionVarLenScore”接口执行计算。
[object Object]
[object Object]
aclnnFlashAttentionVarLenScoreGetWorkspaceSize
aclnnFlashAttentionVarLenScore
约束说明
- 确定性计算:
- aclnnFlashAttentionVarLenScore默认确定性实现。
- 该接口与PyTorch配合使用时,需要保证CANN相关包与PyTorch相关包的版本匹配
- 输入query、key、value的约束如下:
- B:batchsize必须相等。
- D:Head-Dim必须满足(qD == kD && kD >= vD)。
- inputLayout必须一致。
- 输入query、key、value、realShiftOptional的数据类型必须一致。
- query、key、value数据排布格式仅支持TND,T是B和S合轴紧密排列的数据(每个batch的SeqLenQ和SeqLenKV),其中B(Batch)表示输入样本批量大小、S(Seq-Length)表示输入样本序列长度、H(Head-Size)表示隐藏层的大小、N(Head-Num)表示多头数、D(Head-Dim)表示隐藏层最小的单元尺寸,且满足D=H/N。
- 支持输入query的N和key/value的N不相等,但必须成比例关系,即Nq/Nkv必须是非0整数,Nq取值范围1~256。当Nq/Nkv > 1时,即为GQA(grouped-query attention);当Nkv=1时,即为MQA(multi-query attention)。本文如无特殊说明,N表示的是Nq。
- 关于数据shape的约束,其中:
- T:取值范围为1~1M。
- N:取值范围为1~256。
- D:取值范围为1~768。
- realShiftOptional:如果Sq大于1024的每个batch的Sq与Skv等长且是sparseMode为0、2、3的下三角掩码场景,可使能alibi位置编码压缩,此时只需要输入原始PSE最后1024行进行内存优化,即alibi_compress = ori_pse[:, :, -1024:, :],具体如下:
- 参数每个batch不相同时,shape为BNHSkv(H=1024)。
- 每个batch相同时,shape为1NHSkv(H=1024)。
- 如不使用该参数可传入nullptr。
- sparseMode的约束如下:
- 当所有的attenMaskOptional的shape小于2048且相同的时候,建议使用default模式,来减少内存使用量;
- 配置为1、2、3、5、6时,用户配置的preTokens、nextTokens不会生效;
- 配置为0、4、7、8时,须保证attenMaskOptional与preTokens、nextTokens的范围一致。
- 用户不特意指定时建议传入0。
- sparse不同模式的详细说明请参见。
- sparseMode为1、2、3、4、6、7、8时,应传入对应正确的attenMaskOptional,否则将导致计算结果错误。当attenMaskOptional输入为None时,sparseMode、preTokens、nextTokens参数不生效,固定为全计算。
- 配置为3时,不支持无效行计算,需要满足每个batch的Sq<=Skv。
- 配置为7时,不支持可选输入realShiftOptional。
- 配置为8时,当每个sequence的q、kv等长时支持可选输入realShiftOptional,针对全局做pse生成。支持q方向进行外切,需要外切前每个sequence的q、kv等长,外切后传入的actualSeqQLenOptional。
- 部分场景下,如果计算量过大可能会导致算子执行超时(aicore error类型报错,errorStr为:timeout or trap error),此时建议做轴切分处理,注:这里的计算量会受B、S、N、D等参数的影响,值越大计算量越大。
- prefixOptional稀疏计算场景即sparseMode=6,当Sq > Skv时,prefix的N值取值范围[0, Skv],当Sq <= Skv时,prefix的N值取值范围[Skv-Sq, Skv]。
- band场景,preTokens和nextTokens之间必须要有交集。
- attenMaskOptional输入不支持补pad,即attenMaskOptional中不能存在某一行全1的场景。
- actualSeqQLenOptional输入支持某个Batch上的S长度为0,此时不支持可选输入realShiftOptional,假设真实的S长度为[2,2,0,2,2],则传入的actualSeqQLenOptional为[2,4,4,6,8]。actualSeqQLenOptional的长度取值范围为1~2K。当存在prefixOptional输入的时候,其长度最大支持1K。 [0] - actualSeqKvLenOptional[0] + qStartIdxOptional - kvStartIdxOptional == 0(本功能属实验性功能)。
调用示例
[object Object]