cache_compile
功能说明
开启“模型编译缓存功能”时需要调用该接口实现编译缓存。
函数原型
def cache_compile(func, *, config: Optional[CompilerConfig] = None, backend: Optional[Any] = None, dynamic: bool = True, cache_dir: Optional[str] = None, global_rank: Optional[int] = None, tp_rank: Optional[int] = None, pp_rank: Optional[int] = None, ge_cache: bool = False, **kwargs) -> Callable
参数说明
参数 |
输入/输出 |
说明 |
是否必选 |
||
|---|---|---|---|---|---|
func |
输入 |
模型编译缓存的函数。 |
是 |
||
config |
输入 |
图编译配置,CompilerConfig类的实例化,默认情况下采用TorchAir自动生成的配置。 说明:
|
否 |
||
backend |
输入 |
后端选择,默认值为"None",通过torchair.get_npu_backend()获取。
|
否 |
||
dynamic |
输入 |
是否按照输入动态trace,bool类型。 该参数继承了PyTorch原有特性,详细介绍请参考LINK。 默认True,进行动态trace。 |
否 |
||
cache_dir |
输入 |
缓存文件落盘的根目录,支持绝对路径和相对路径。
${cache_dir}默认为“.torchair_cache”(若无会新建),${work_dir}为当前工作目录,${model_info}为模型信息,${func}为封装的func函数。 说明:
|
否 |
||
global_rank |
输入 |
分布式训练时的rank,int类型。取值范围为[0, world_size-1],其中world_size是参与分布式训练的总进程数。 一般情况下TorchAir会自动通过torch.distributed.get_rank()获取默认值。 |
否 |
||
tp_rank |
输入 |
指张量模型并行rank,int类型,取值是global_rank中划分为TP域的rank id。 |
否 |
||
pp_rank |
输入 |
指流水线并行rank,int类型,取值是global_rank中划分为PP域的rank id。 |
否 |
||
custom_decompositions |
输入 |
手动指定模型运行时使用的decomposition(将较大算子操作分解为小算子实现)。 用户根据实际情况配置,以Add算子为例示例代码如下:
|
否 |
||
ge_cache |
输入 |
是否缓存Ascend IR图编译结果,bool类型。除了优化Dynamo编译耗时,还支持优化Ascend IR图编译耗时。
说明:
|
否 |
||
* |
输入 |
预留参数项,用于后续功能拓展。 |
否 |
返回值说明
返回一个Callable对象。
约束说明
- 如果图中包含依赖随机数生成器(RNG)的算子(例如randn、bernoulli、dropout等),不支持使用本功能。
- 本功能与torch.compile原始方案相比多了如下限制:
- 缓存要与执行计算图一一对应,若重编译则缓存失效。
- Guards阶段被跳过且不会触发JIT编译,要求生成模型的脚本和加载缓存的脚本一致。
- CANN包跨版本缓存无法保证兼容性,如果版本升级,需要清理缓存目录并重新进行Ascend IR计算图编译生成缓存。
- reduce-overhead模式下,本功能仅适用于如下产品:
Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件 Atlas A3 训练系列产品/Atlas A3 推理系列产品