push_cache
产品支持情况
产品 |
是否支持 |
---|---|
√ |
|
√ |
|
x |
|
x |
|
x |
|
x |
函数功能
根据CacheKey,从本地节点推送Cache到远端Cache。
函数原型
1 2 3 4 5 6 | push_cache(dst_cache_key: CacheKeyByIdAndIndex, src_cache: Cache, src_batch_index: int = 0, src_layer_range: range = None, dst_layer_range: range = None, size: int = -1) |
参数说明
参数名称 |
数据类型 |
取值说明 |
---|---|---|
dst_cache_key |
远端的Cache索引 |
|
src_cache |
本地的cache |
|
src_batch_index |
int |
本地的batch index,默认为0。 |
**kwargs |
NA |
这个是Python函数的可扩展参数通用写法,一般通过key=value的方式直接传入参数。 可选参数的详细信息请参考表1。 |
size |
int |
一个tensor传输的大小,默认值-1表示本地单个KV的大小,暂不支持其他设置。 |
参数名称 |
数据类型 |
取值说明 |
---|---|---|
src_layer_range |
Optional[range] |
可选参数,用于按层pull kv场景。传输源的layer的范围,step只支持1。不设置时为传输所有layer。需要注意这里是layer的index,而不是tensor的index,即1个layer对应连续N个tensor(K/V),这里要求分配内存时,必须是KV,...,KV排布,不支持其他场景。N为tensor_num_per_layer的取值,默认为2。 |
dst_layer_range |
Optional[range] |
可选参数,用于按层pull kv场景。传输目标的layer的范围,step只支持1。不设置时为传输所有layer。需要注意这里是layer的index,而不是tensor的index,即1个layer对应连续N个tensor(K/V),这里要求分配内存时,必须是KV,...,KV排布,不支持其他场景。N为tensor_num_per_layer的取值,默认为2。 |
tensor_num_per_layer |
Optional[int] |
可选参数,表示每层的tensor的数量,默认值是2,取值范围是[1,cache的tensor总数]。当src_layer_range或dst_layer_range取值为非默认值时, tensor_num_per_layer可以保持默认值,也可以输入其他值,输入其他值的时,tensor_num_per_layer的取值还需要被当前cache的tensor总数整除。 |
调用示例
1 2 3 4 | from llm_datadist import * ... dst_cache_keys = [CacheKey(1, req_id=1), CacheKey(1, req_id=2)] cache_manager.push_cache(dst_cache_keys[1], src_cache, 1, src_layer_range=range(0,1), dst_layer_range=range(0,1)) |
返回值
正常情况下无返回值。
传入数据类型错误情况下会抛出TypeError或ValueError异常。
执行时间超过sync_kv_timeout配置会抛出LLMException异常。
layer_range参数异常会抛出LLMException异常。
约束说明
- 当src_cache是HOST设备时,dst_cache是DEVICE设备时,仅支持src_cache与dst_cache都为连续cache的场景。
- 开启enable_remote_cache_accessible时,只支持cache_key类型为CacheKeyByIdAndIndex。
- 在D2H和H2D传输场景,需要在host端初始化时配置device内存池。
- 当前仅支持src_layer_range和dst_layer_range取值一致。