昇腾社区首页
中文
注册

torch_npu.contrib.module.LinearA8W8Quant

该接口计划废弃,可以使用torch_npu.contrib.module.LinearQuant接口进行替换。

功能描述

LinearA8W8Quant是对torch_npu.npu_quant_matmul接口的封装类,完成A8W8量化算子的矩阵乘计算。

接口原型

1
torch_npu.contrib.module.LinearA8W8Quant(in_features, out_features, *, bias=True, offset=False, pertoken_scale=False, output_dtype=None)

参数说明

  • in_features(计算参数):int类型,matmul计算中k轴的值。
  • out_features(计算参数):int类型,matmul计算中n轴的值。
  • bias(计算参数):bool类型,代表是否需要bias计算参数。如果设置成False,则bias不会加入量化matmul的计算。
  • offset(计算参数):bool类型,代表是否需要offset计算参数。如果设置成False,则offset不会加入量化matmul的计算。
  • pertoken_scale(计算参数):bool类型,代表是否需要pertoken_scale计算参数。如果设置成False,则pertoken_scale不会加入量化matmul的计算。Atlas 推理系列产品当前不支持pertoken_scale。
  • output_dtype(计算参数):ScalarType类型,表示输出Tensor的数据类型。默认值为None,代表输出Tensor数据类型为int8。
    • Atlas 推理系列产品:支持输入torch.int8、torch.float16。
    • Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件:支持输入torch.int8、torch.float16、torch.bfloat16。
    • Atlas A3 训练系列产品/Atlas A3 推理系列产品:支持输入torch.int8、torch.float16、torch.bfloat16。

输入说明

x1(计算输入):Tensor类型,数据类型支持int8。数据格式支持ND,shape需要在2-6维范围。

变量说明

  • weight(变量):Tensor类型,矩阵乘中的weight。数据格式支持int8。数据格式支持ND,shape为(batch, n, k),shape需要在2-6维范围。
    • Atlas 推理系列产品:需要调用torchair.experimental.inference.use_internal_format_weight或torch_npu.npu_format_cast完成weight(batch, n, k)高性能数据排布功能。
    • Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件:需要调用torch_npu.npu_format_cast完成weight(batch,n,k)高性能数据排布功能,但不推荐使用该module方式,推荐torch_npu.npu_quant_matmul。
    • Atlas A3 训练系列产品/Atlas A3 推理系列产品:需要调用npu_format_cast完成weight(batch, n, k)高性能数据排布功能,但不推荐使用该module方式,推荐torch_npu.npu_quant_matmul。
  • scale(变量):Tensor类型,量化计算的scale。数据格式支持ND,shape是1维(t,),t=1或n,其中n与weight的n一致。如需传入int64数据类型的scale,需要提前调用torch_npu.npu_trans_quant_param接口来获取int64数据类型的scale。
    • Atlas 推理系列产品:数据类型支持float32、int64。
    • Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件:数据类型支持float32、int64、bfloat16。
    • Atlas A3 训练系列产品/Atlas A3 推理系列产品:数据类型支持float32、int64、bfloat16。
  • offset(变量):Tensor类型,量化计算的offset。可选参数。数据类型支持float32,数据格式支持ND,shape是1维(t,),t=1或n,其中n与weight的n一致。
  • pertoken_scale(变量):Tensor类型,可选参数。量化计算的pertoken。数据类型支持float32,数据格式支持ND,shape是1维(m,),其中m与x1的m一致。目前仅在输出为float16和bfloat16场景下可不为空Atlas 推理系列产品当前不支持pertoken_scale。
  • bias(变量):Tensor类型,可选参数。矩阵乘中的bias。数据格式支持ND,shape支持1维(n,)或3维(batch, 1, n),n与weight的n一致,同时batch值需要等于x1,weight boardcast后推导出的batch值。当输出为2、4、5、6维情况下,bias shape为1维;当输出为3维情况下,bias shape为1维或3维。
    • Atlas 推理系列产品:数据类型支持int32。
    • Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件:数据类型支持int32、bfloat16、float16、float32。
    • Atlas A3 训练系列产品/Atlas A3 推理系列产品:数据类型支持int32、bfloat16、float16、float32。
  • output_dtype(变量):ScalarType类型,可选参数。表示输出Tensor的数据类型。默认值为None,代表输出Tensor数据类型为int8。
    • Atlas 推理系列产品:支持输入torch.int8、torch.float16。
    • Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件:支持输入torch.int8、torch.float16、torch.bfloat16。
    • Atlas A3 训练系列产品/Atlas A3 推理系列产品:支持输入torch.int8、torch.float16、torch.bfloat16。

输出说明

一个Tensor类型的输出,代表量化matmul的计算结果:

  • 如果output_dtype为torch.float16,输出的数据类型为float16。
  • 如果output_dtype为torch.int8或者None,输出的数据类型为int8。
  • 如果output_dtype为torch.bfloat16,输出的数据类型为bfloat16。

约束说明

  • 该接口仅在推理场景下使用。
  • 该接口支持图模式(目前仅支持PyTorch 2.1版本)。
  • x1、weight、scale不能是空。
  • x1与x2最后一维的shape大小不能超过65535。
  • 输入参数或变量间支持的数据类型组合情况如下:
    表1 Atlas 推理系列产品

    x1(入参)

    weight(变量)

    scale(变量)

    offset(变量)

    bias(变量)

    pertoken_scale(变量)

    output_dtype(入参或变量)

    int8

    int8

    int64/float32

    None

    int32/None

    None

    float16

    int8

    int8

    int64/float32

    float32/None

    int32/None

    None

    int8

    注:None表示传入参数或变量为False的场景。

    表2 Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件)(Atlas A3 训练系列产品/Atlas A3 推理系列产品

    x1(入参)

    weight(变量)

    scale(变量)

    offset(变量)

    bias(变量)

    pertoken_scale(变量)

    output_dtype(入参或变量)

    int8

    int8

    int64/float32

    None

    int32/None

    None

    float16

    int8

    int8

    int64/float32

    float32/None

    int32/None

    None

    int8

    int8

    int8

    float32/bfloat16

    None

    int32/bfloat16/float32/None

    float32/None

    bfloat16

    int8

    int8

    float32

    None

    int32/float16/float32/None

    float32/None

    float16

    注:None表示传入参数或变量为False的场景。

支持的型号

  • Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件
  • Atlas A3 训练系列产品/Atlas A3 推理系列产品
  • Atlas 推理系列产品

调用示例

  • 单算子模式调用
     1
     2
     3
     4
     5
     6
     7
     8
     9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    # int8类型输入
    import torch
    import torch_npu
    import logging
    import os
    from torch_npu.contrib.module import LinearA8W8Quant
    x1 = torch.randint(-1, 1, (1, 512), dtype=torch.int8).npu()
    x2 = torch.randint(-1, 1, (128, 512), dtype=torch.int8).npu()
    scale = torch.randn(1, dtype=torch.float32).npu()
    offset = torch.randn(128, dtype=torch.float32).npu()
    bias = torch.randint(-1,1, (128,), dtype=torch.int32).npu()
    in_features = 512
    out_features = 128
    output_dtype = torch.int8
    model = LinearA8W8Quant(in_features, out_features, bias=True, offset=True, output_dtype=output_dtype)
    model = model.npu()
    model.weight.data = x2
    model.scale.data = scale
    model.offset.data = offset
    model.bias.data = bias
    output = model(x1)
    
  • 图模式调用
     1
     2
     3
     4
     5
     6
     7
     8
     9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    import torch
    import torch_npu
    import torchair as tng
    from torchair.ge_concrete_graph import ge_apis as ge
    from torchair.configs.compiler_config import CompilerConfig
    from torch_npu.contrib.module import LinearA8W8Quant
    import logging
    from torchair.core.utils import logger
    logger.setLevel(logging.DEBUG)
    import os
    import numpy as np
    os.environ["ENABLE_ACLNN"] = "true"
    config = CompilerConfig()
    npu_backend = tng.get_npu_backend(compiler_config=config)
    x1 = torch.randint(-1, 1, (1, 512), dtype=torch.int8).npu()
    x2 = torch.randint(-1, 1, (128, 512), dtype=torch.int8).npu()
    scale = torch.randn(1, dtype=torch.float32).npu()
    offset = torch.randn(128, dtype=torch.float32).npu()
    bias = torch.randint(-1,1, (128,), dtype=torch.int32).npu()
    in_features = 512
    out_features = 128
    output_dtype = torch.int8
    model = LinearA8W8Quant(in_features, out_features, bias=True, offset=True, output_dtype=output_dtype)
    model = model.npu()
    model.weight.data = x2
    model.scale.data = scale
    model.offset.data = offset
    if output_dtype != torch.bfloat16:
        tng.experimental.inference.use_internal_format_weight(model)
    model.bias.data = bias
    model = torch.compile(model, backend=npu_backend, dynamic=False)
    output = model(x1)