def infer(self, model_name, inputs, model_version, outputs, request_id, parameters)
函数功能
实现同步推理。
函数原型
1 | def infer(self, model_name, inputs, model_version, outputs, request_id, parameters): |
参数说明
参数名 |
参数类型 |
输入/输出 |
说明 |
|---|---|---|---|
model_name |
str |
输入 |
模型名称。 模型名称支持大小写字母、数字、点号、中划线和下划线中一种或任意几种字符组成,最大长度为1000。 |
inputs |
list |
输入 |
模型输入。 目前只支持输入1个Input实例,该实例中的参数取值如下所示:
|
model_version |
str |
输入 |
模型版本,默认为""。该字段暂不支持,不传递。 |
outputs |
list |
输入 |
指定需要返回的模型输出,默认值为None。如果为None则全部返回。目前只支持指定一个输出,name支持自定义,默认为“output0”。 |
request_id |
str |
输入 |
请求ID,默认为"";为空时会随机初始化一个值。如果为非空,长度需满足[1,1000]。 |
parameters |
dict |
输入 |
额外的请求参数,包括seed、temperature、top_k、top_p、do_sample、repetition_penalty和max_new_tokens,默认None,详情请参见表1。 |
当参数不满足限制条件或者response返回状态码不等于200时会抛异常。
返回值
Result对象表示同步推理结果。