接口功能:sparse_flash_attention(SFA)是针对大序列长度推理场景的高效注意力计算模块,该模块通过“只计算关键部分”大幅减少计算量,然而会引入大量的离散访存,造成数据搬运时间增加,进而影响整体性能。
计算公式:
其中为基于某种选择算法(如[object Object])得到的重要性较高的Key和Value,一般具有稀疏或分块稀疏的特征,为每一个头的维度。
每个算子分为,必须先调用“aclnnSparseFlashAttentionGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnSparseFlashAttention”接口执行计算。
[object Object]
[object Object]
- 参数说明:
[object Object][object Object]
- 该接口支持推理场景下使用。
- 该接口支持图模式。
- N1支持1/2/4/8/16/32/64/128。
- block_size为一个block的token数,block_size取值为16的倍数,且最大支持1024。
- 参数query中的D和key、value的D值相等为512,参数query_rope中的Dr和key_rope的Dr值相等为64。
- 参数query、key、value的数据类型必须保持一致。
- 支持sparse_block_size整除block_size。
[object Object]