vLLM_Client后处理参数

“--TestType”取值为“vllm_client”时,后处理参数详情请参考下表。

参数

类型

说明

repetition_penalty

float

重复惩罚用于减少在文本生成过程中出现重复片段的概率。它对之前已经生成的文本进行惩罚,使得模型更倾向于选择新的、不重复的内容。

小于1.0表示对重复进行奖励;1.0表示不进行重复度惩罚;大于1.0表示对重复进行惩罚。

presence_penalty

float

存在惩罚,影响模型如何根据到目前为止是否出现在文本中来惩罚新token。正值将通过惩罚已经使用的词,增加模型谈论新主题的可能性。建议取值范围为 [-2.0, 2.0]。

frequency_penalty

float

频率惩罚,影响模型如何根据文本中词汇的现有频率惩罚新词汇。正值将通过惩罚已经频繁使用的词来降低模型一行中重复用词的可能性。建议取值范围为 [-2.0, 2.0]。

temperature

float

控制生成的随机性,较高的值会产生更多样化的输出。1.0表示不进行计算,大于1.0表示输出随机性提高。

取0.0时将忽略其他后处理参数做greedysearch。推荐使用大于或等于0.001的值,小于0.001可能会导致文本质量不佳。建议最大值取2.0,同时视模型而定。

top_p

float

控制模型生成过程中考虑的词汇范围,使用累计概率选择候选词,直到累计概率超过给定的阈值。该参数也可以控制生成结果的多样性,它基于累积概率选择候选词,直到累计概率超过给定的阈值为止。

top_k

int32

控制模型生成过程中考虑的词汇范围,只从概率最高的k个候选词中选择。

seed

uint64

用于指定推理过程的随机种子,相同的seed值可以确保推理结果的可重现性,不同的seed值会提升推理结果的随机性。

model

string

指定推理时使用的Lora权重,即loraId。

include_stop_str_in_output

bool

决定是否在生成的推理文本中包含停止字符串。

  • true:是
  • false:否

skip_special_tokens

bool

指定在推理生成的文本中是否跳过特殊tokens。

  • true:是
  • false:否

ignore_eos

bool

指定在推理文本生成过程中是否忽略eos_token结束符。

  • true:是
  • false:否

当数据类型--DatasetType为synthetic时,默认为true;其他数据类型时为false。建议显式传递ignore_eos,避免不同数据集带来的混淆。

best_of

int32

推理生成best_of个序列。与n联合使用时,表现为从best_of个序列中,选取n个返回给用户。取值范围为[1, 128],默认值为1。当与参数n联合使用时,选取概率最高的前n个;流式推理场景下n和best_of必须相等。未设置参数best_of但设置参数n时,best_of将自动设置为n。此场景下要求temperature参数不为0。

n

int32

推理生成n个序列。取值范围为[1, 128],默认值为1。可与best_of联合使用;流式推理场景下n和best_of相等。未设置参数best_of但设置参数n时,best_of将自动设置为n。