开启模型编译缓存功能时需要调用该接口实现模型缓存编译。
def cache_compile(func, *, config: Optional[CompilerConfig] = None, dynamic: bool = True, cache_dir: Optional[str] = None, global_rank: Optional[int] = None, tp_rank: Optional[int] = None, pp_rank: Optional[int] = None, ge_cache: bool = False, **kwargs) -> Callable
参数 |
输入/输出 |
说明 |
是否必选 |
||
---|---|---|---|---|---|
func |
输入 |
缓存编译的函数。 |
是 |
||
config |
输入 |
图编译配置,CompilerConfig类的实例化,缺省情况下采用TorchAir自动生成的配置。 说明:
本场景下不支持同时配置Dynamo导图功能、使能RefData类型转换功能。 |
否 |
||
dynamic |
输入 |
是否按照输入动态trace,bool类型。 该参数继承了PyTorch原有特性,详细介绍请参考LINK。 默认True,进行动态trace。 |
否 |
||
cache_dir |
输入 |
缓存文件落盘的根目录。默认在“.torchair_cache”目录下。 |
否 |
||
global_rank |
输入 |
分布式训练时的rank,INT类型。取值范围为[0, world_size-1],其中world_size是参与分布式训练的总进程数。 一般情况下TorchAir会自动通过torch.distributed.get_rank()获取缺省值。 |
否 |
||
tp_rank |
输入 |
指张量模型并行rank,INT类型,取值是global_rank中划分为TP域的rank id。 |
否 |
||
pp_rank |
输入 |
指流水线并行rank,INT类型,取值是global_rank中划分为PP域的rank id。 |
否 |
||
custom_decompositions |
输入 |
手动指定模型运行时使用的decomposition(将较大算子操作分解为小算子实现)。 用户根据实际情况配置,以Add算子为例示例代码如下:
|
否 |
||
ge_cache |
输入 |
是否缓存GE图编译结果,bool类型。
说明:
|
否 |
||
* |
输入 |
预留参数项,用于后续功能拓展。 |
否 |
返回一个Callable对象。
import torch import torch_npu import torchair config = torchair.CompilerConfig() _cache_dir = "./test/cache/compiled_cache" class Model(torch.nn.Module): def __init__(self): super().__init__() self.cached_prompt = torchair.inference.cache_compile(self.prompt, config=config, cache_dir=_cache_dir, ge_cache=True) def _forward(self, x, y): x = x + y return x def forward(self, x, y): return self.cached_prompt(x, y) def prompt(self, x, y): return self._forward(x, y) x = torch.rand((2, 1)).npu() y = torch.rand((2, 1)).npu() model = Model().npu() res = model(x, y)