IncreFlashAttentionQuantFusionPass
融合模式
量化场景,将IncreFlashAttention+AscendQuant融合为IncreFlashAttention算子,quant的scale和offset转化为ifa的quant_scale2和quant_offset2入参。
使用约束
- 仅支持IncreFlashAttention为fp16输出。
- 仅支持AscendQuant为fp16输入int8输出。
- IncreFlashAttention算子的quant_scale2和quant_offset2必须为空。
- IncreFlashAttention算子必须为单输出。
支持的型号
Atlas A2训练系列产品/Atlas 800I A2推理产品
父主题: 图融合规则说明