aclnnFlashAttentionScoreV2
产品支持情况
功能说明
函数原型
每个算子分为,必须先调用“aclnnFlashAttentionScoreV2GetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnFlashAttentionScoreV2”接口执行计算。
[object Object]
[object Object]
aclnnFlashAttentionScoreV2GetWorkspaceSize
aclnnFlashAttentionScoreV2
约束说明
- 确定性计算:
- aclnnFlashAttentionScoreV2默认确定性实现。
- 该接口与PyTorch配合使用时,需要保证CANN相关包与PyTorch相关包的版本匹配。
- 输入query、key、value的约束:
- B:batchsize必须相等。
- D:Head-Dim必须满足(qD == kD && kD >= vD)。
- inputLayout必须一致。
- 输入key/value的shape除D外必须一致。
- 关于数据shape的约束,以inputLayout的BSND、BNSD为例(BSH、SBH下H=N*D),其中:
- B:取值范围为1~2M。带prefixOptional的时候B最大支持2K。
- N:取值范围为1~256。
- S:取值范围为1~1M。
- D:取值范围为1~768。
- query、key、value数据排布格式支持从多种维度解读,其中B(Batch)表示输入样本批量大小、S(Seq-Length)表示输入样本序列长度、H(Head-Size)表示隐藏层的大小、N(Head-Num)表示多头数、D(Head-Dim)表示隐藏层最小的单元尺寸,且满足D=H/N。
- realShiftOptional:如果Sq大于1024的每个batch的Sq与Skv等长且是sparseMode为0、2、3的下三角掩码场景,可使能alibi位置编码压缩,此时只需要输入原始PSE最后1024行,实现内存优化,即alibi_compress = ori_pse[:, :, -1024:, :],具体如下:
- 参数每个batch不相同时,shape为BNHSkv(H=1024)。
- 每个batch相同时,shape为1NHSkv(H=1024)。
- 如果pseType为2或3的时候,数据类型需为FLOAT32, 对应shape支持范围是[B,N]或[N]。
- 如果不使能该参数,realShiftOptional需要传入nullptr,pseType需要传入1。
- innerPrecise: 当前0、1为保留配置值,2为使能无效行计算,其功能是避免在计算过程中存在整行mask进而导致精度有损失,但是该配置会导致性能下降。 如果算子可判断出存在无效行场景,会自动使能无效行计算,例如sparseMode为3,Sq > Skv场景。
- pseType 各个取值含义
[object Object]undefined
- pseType为2或3的时候,当前只支持Sq和Skv等长。
- sparseMode的约束如下:
- 部分场景下,如果计算量过大可能会导致算子执行超时(aicore error类型报错,errorStr为:timeout or trap error),此时建议做轴切分处理,注:这里的计算量会受B、S、N、D等参数的影响,值越大计算量越大。
- band场景,preTokens和nextTokens之间必须要有交集。
- prefixOptional稀疏计算场景即sparseMode=5或者sparseMode=6,当Sq > Skv时,prefix的N值取值范围[0, Skv],当Sq <= Skv时,prefix的N值取值范围[Skv-Sq, Skv]。
- realShiftOptional Sq大于1024时如果配置BNHS、1NHS,需要Sq和Skv等长。
调用示例
[object Object]