开发者
资源
[object Object]

[object Object][object Object]undefined
[object Object]
  • 接口功能:sparse_flash_attention(SFA)是针对大序列长度推理场景的高效注意力计算模块,该模块通过“只计算关键部分”大幅减少计算量,然而会引入大量的离散访存,造成数据搬运时间增加,进而影响整体性能。

  • 计算公式:

softmax(Q@K~Tdk)@V~\text{softmax}(\frac{Q@\tilde{K}^T}{\sqrt{d_k}})@\tilde{V}

其中K~,V~\tilde{K},\tilde{V}为基于某种选择算法(如[object Object])得到的重要性较高的Key和Value,一般具有稀疏或分块稀疏的特征,dkd_kQ,K~Q,\tilde{K}每一个头的维度。

[object Object]

每个算子分为,必须先调用“aclnnSparseFlashAttentionGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnSparseFlashAttention”接口执行计算。

[object Object]
[object Object]
[object Object]
  • 参数说明:
[object Object]
[object Object]
  • 返回值:

    aclnnStatus:返回状态码,具体参见

    第一段接口会完成入参校验,出现以下场景时报错:

    [object Object]
[object Object][object Object]
  • 返回值:

    aclnnStatus:返回状态码,具体参见

[object Object]
  • 该接口支持推理场景下使用。
  • 该接口支持图模式。
  • N1支持1/2/4/8/16/32/64/128。
  • block_size为一个block的token数,block_size取值为16的倍数,且最大支持1024。
  • 参数query中的D和key、value的D值相等为512,参数query_rope中的Dr和key_rope的Dr值相等为64。
  • 参数query、key、value的数据类型必须保持一致。
  • 支持sparse_block_size整除block_size。
[object Object]

示例代码如下,仅供参考,具体编译和执行过程请参考

[object Object]