KV Cache管理
功能介绍
在LLM-DataDist初始化时会预申请一块指定大小的内存池,由OPTION_BUF_POOL_CFG配置项决定其大小,后续的KV Cache的内存申请及释放都在预申请的内存上进行,相比每次执行时申请一块cache内存,可以节省耗时。
KV Cache管理涉及的主要接口及功能如下:
接口名称 |
功能 |
---|---|
AllocateCache |
分配Cache。 |
DeallocateCache |
释放Cache。 |
PullKvCache |
从远端节点拉取Cache到本地Cache,仅当角色为Decoder时可调用。 |
PullKvBlocks |
传输Blocks Cache场景下通过配置block列表的方式,从远端节点拉取Cache到本地Cache,仅当角色为Decoder时可调用。 |
CopyKvCache |
拷贝KV Cache。支持D2D,D2H的拷贝。 当期望PullKvCache和其他使用Cache的操作流水时,可以额外申请一块中转Cache。当其他流程在使用Cache时,可以先将下一次的Cache pull到中转Cache,待其他流程使用完Cache后,拷贝到指定的位置,从而通过pipeline流水将PullKvCache的耗时隐藏,减少总耗时。 公共前缀场景在新请求推理前,可以将公共前缀拷贝到新的内存中与当前请求的kv合并推理。 |
CopyKvBlocks |
PA场景下,通过block列表的方式拷贝KV Cache。支持D2D,D2H,H2D的拷贝。
|
PushKvCache |
从本地节点推送Cache到远端节点,仅当角色为Prompt时可调用。 |
PushKvBlocks |
传输Blocks Cache场景下场景下通过配置block列表的方式,从本地节点推送Cache到远端节点,仅当角色为Prompt时可调用。 |
使用场景
主要用于分布式集群间的KV Cache传输和搬移。
功能示例(一般Cache传输场景)
本示例介绍一般Cache传输场景下接口的使用,主要涉及KV Cache的申请、释放、传输。如下将根据业务角色给出伪代码示例,接口参数请参考LLM-DataDist接口列表。
- P侧和D侧根据建链章节的示例完成LLM-DataDist的初始化和建链操作。
- 在P/D侧给每个请求申请对应大小的KV Cache内存,若失败,则需要释放对应的资源。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
void OnError(LlmDataDist &llm_data_dist, Cache &cache) { if (cache.cache_id > 0) { (void) llmDataDist.DeallocateCache(cache.cache_id); } llm_data_dist.Finalize(); } CacheDesc kv_cache_desc{}; kv_cache_desc.num_tensors = NUM_TENSORS; kv_cache_desc.data_type = DT_INT32; kv_cache_desc.shape = {8, 16}; Cache cache{}; auto ret = llm_data_dist.AllocateCache(kv_cache_desc, cache); if (ret != LLM_SUCCESS) { printf("[ERROR] AllocateCache failed, ret = %u\n", ret); OnError(llm_data_dist, cache); return -1; }
- 将Cache从P侧传输到D侧,有两种方式
- 在D侧调用PullKvCache接口拉取KV Cache。
1 2 3 4 5 6 7 8 9
// P侧进行全量推理写cache,通知D侧可以pull // D侧pull拉取cache CacheIndex cache_index{PROMPT_CLUSTER_ID, 1, 0}; ret = llm_data_dist.PullKvCache(cache_index, cache, 0); if (ret != LLM_SUCCESS) { printf("[ERROR] PullKvCache failed, ret = %u\n", ret); return -1; } // 进行增量推理
- 在P侧调用PushKvCache接口推送KV Cache。
1 2 3 4 5 6 7 8 9 10 11 12
// P侧一层计算完可在传输线程立即推送,以实现将大部分传输时间和计算重叠。 CacheIndex dst_cache_index{DECODE_CLUSTER_ID, 1, 0}; KvCacheExtParam ext_param{}; ext_param.src_layer_range = std::pair<int32_t, int32_t>(0, 0); ext_param.dst_layer_range = std::pair<int32_t, int32_t>(0, 0); // 每层tensor数量,可根据实际模型修改 ext_param.tensor_num_per_layer = 2; ret = llm_data_dist.PushKvCache(cache, dst_cache_index, 0, -1, ext_param); if (ret != LLM_SUCCESS) { printf("[ERROR] PushKvCache failed, ret = %u\n", ret); return -1; }
- P/D侧根据业务中Cache的使用时机自行释放对应请求的KV Cache内存。
1 2 3 4 5 6
ret = llm_data_dist.DeallocateCache(cache.cache_id); if (ret != LLM_SUCCESS) { printf("[ERROR] DeallocateCache failed, ret = %u\n", ret); } else { printf("[INFO] DeallocateCache success\n"); }
- 业务退出时,P侧和D侧根据断链章节的示例进行断链和调用finalize接口释放资源。
功能示例(Blocks Cache传输场景)
本示例介绍Blocks Cache(将Cache使用块状形式管理)传输场景下接口的使用,主要涉及KV Cache的申请、释放、传输。如下将根据业务角色给出伪代码示例,接口参数请参考LLM-DataDist接口列表。
- P侧和D侧根据集群建链的示例完成LLM-DataDist的初始化和建链操作。
- 在P侧和D侧模型的每层按照计算好的num_block数量调用AllocateCache申请KV Cache。不同请求对创建的num_block大小的KV Cache进行复用,上层框架自行管理,业务结束后释放申请的内存。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
void OnError(LlmDataDist &llm_data_dist, Cache &cache) { if (cache.cache_id > 0) { (void) llm_data_dist.DeallocateCache(cache.cache_id); } llm_data_dist.Finalize(); } CacheDesc kv_cache_desc{}; kv_cache_desc.num_tensors = NUM_TENSORS; kv_cache_desc.data_type = DT_INT32; kv_cache_desc.shape = {8, 16}; Cache cache{}; auto ret = llm_data_dist.AllocateCache(kv_cache_desc, cache); if (ret != LLM_SUCCESS) { printf("[ERROR] AllocateCache failed, ret = %u\n", ret); OnError(llm_data_dist, cache); return -1; }
- P侧有新请求进来后,会给每个请求分配好对应的block_index,这块是推理框架提供的功能,模型推理完之后,该请求对应的KV Cache就在对应的block_index所在的内存上,将模型输出和请求对应的block_table传输给D侧推理模型作为输入。
- D侧有新请求进来后,也会给每个请求分配好对应的block_index,然后调用pull_blocks接口,根据P侧的block_index和D侧的block_index的对应关系,将KV Cache传输到指定位置。
- 在D侧调用PullKvBlocks接口拉取KV Cache。
1 2 3 4 5 6 7 8 9 10 11
// P侧进行全量推理写cache,通知D侧可以pull // D侧pull拉取cache CacheIndex cache_index{PROMPT_CLUSTER_ID, 1, 0}; std::vector<uint64_t> prompt_blocks = {0, 1, 2, 3}; std::vector<uint64_t> decoder_blocks = {3, 2, 1, 0}; auto ret = llm_data_dist.PullKvBlocks(cache_index, cache, prompt_blocks, decoder_blocks); if (ret != LLM_SUCCESS) { printf("[ERROR] PullKvBlocks failed, ret = %u\n", ret); return -1; } // 进行增量推理
- 在P侧调用PushKvBlocks接口推送KV Cache。
1 2 3 4 5 6 7 8 9 10 11 12 13 14
// P侧一层计算完可在传输线程立即推送,以实现将大部分传输时间和计算重叠。 CacheIndex dst_cache_index{DECODE_CLUSTER_ID, 1}; KvCacheExtParam ext_param{}; ext_param.src_layer_range = std::pair<int32_t, int32_t>(0, 0); ext_param.dst_layer_range = std::pair<int32_t, int32_t>(0, 0); // 每层tensor数量,可根据实际模型修改 ext_param.tensor_num_per_layer = 2; std::vector<uint64_t> prompt_blocks = {0, 1, 2, 3}; std::vector<uint64_t> decoder_blocks = {3, 2, 1, 0}; ret = llm_data_dist.PushKvBlocks(cache, dst_cache_index, prompt_blocks, decoder_blocks, ext_param); if (ret != LLM_SUCCESS) { printf("[ERROR] PushKvBlocks failed, ret = %u\n", ret); return -1; }
- P/D侧根据业务中Cache的使用时机自行释放对应请求的KV Cache内存。
1 2 3 4 5 6
ret = llm_data_dist.DeallocateCache(cache.cache_id); if (ret != LLM_SUCCESS) { printf("[ERROR] DeallocateCache failed, ret = %u\n", ret); } else { printf("[INFO] DeallocateCache success\n"); }
- 业务退出时,P侧和D侧根据断链章节的示例进行断链和资源释放。
异常处理
- 遇到LLM_DEVICE_OUT_OF_MEMORY,表示device申请KV Cache内存失败。需要检查初始化时设置的OPTION_BUF_POOL_CFG大小以及申请KV Cache的大小,查看是否有请求KV Cache拉取之后没有释放内存。
- 遇到LLM_KV_CACHE_NOT_EXIST,表示对端KV Cache不存在,需要检查对端进程是否异常或者对应KV Cache的请求有没有推理完成。该错误不影响其他请求流程,确认流程后可以重试。
- 遇到LLM_WAIT_PROCESS_TIMEOUT或LLM_TIMEOUT,表示pull KV超时,说明链路出现问题,需要重新断链建链再尝试。
- 遇到LLM_NOT_YET_LINK,说明与远端cluster没有建链。