接口功能:实现“Transformer Attention Score”的融合量化的反向计算。
计算公式:
为方便表达,以变量和表示计算公式:
则注意力的反向计算公式为:
每个算子分为,必须先调用“aclnnQuantFlashAttentionScoreGradGetWorkspace”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnQuantFlashAttentionScoreGrad”接口执行计算。
[object Object]
[object Object]
确定性计算:
- aclnnQuantFlashAttentionScoreGrad默认确定性实现。
输入query、key、value、dy的约束如下:
- B:batchsize必须相等。
- inputLayout必须一致。
- D:支持128。
输入query/dy的N和key/value的N必须相等。
关于数据shape的约束,目前支持以下场景:
[object Object]部分场景下,如果计算量过大可能会导致算子执行超时(aicore error类型报错,errorStr为:timeout or trap error),此时建议做轴切分处理,注:这里的计算量会受B、S、N、D等参数的影响,值越大计算量越大。
关于softmaxMax与softmaxSum参数的约束:输入格式固定为[B, N, S, 1]。
headNum的取值必须和传入的Query中的N值保持一致。
[object Object]