函数:execute
产品支持情况
产品 |
是否支持 |
---|---|
|
√ |
|
√ |
|
√ |
|
√ |
|
√ |
|
√ |
功能说明
执行模型推理,直到返回推理结果。
函数原型
- C函数原型
1
aclError aclmdlExecute(uint32_t modelId, const aclmdlDataset *input, aclmdlDataset *output)
- python函数
1
ret = acl.mdl.execute(model_id, input, output)
参数说明
参数名 |
说明 |
---|---|
model_id |
int,指定需要执行推理的模型的ID。 可在以下接口成功加载模型后获取到模型ID。 |
input |
int,模型推理的输入数据对应的指针地址,具体请参见aclmdlDataset。 |
output |
int,模型推理的输出数据对应的指针地址,具体请参见aclmdlDataset。 调用acl.create_data_buffer接口创建存放对应index输出数据的aclDataBuffer类型时,可通过“data”参数处传入0,同时设置“size”为0,创建一个空的aclDataBuffer类型,在模型执行过程中,系统内部自行计算并申请该index输出的内存。 使用该方式可节省内存,但在内存数据使用结束后,需由用户释放内存并重置aclDataBuffer,并且系统内部在申请内存时涉及内存拷贝,可能涉及性能损耗。 释放内存并重置aclDataBuffer的示例代码如下: data_buffer = acl.mdl.get_dataset_buffer(output, 0) // 根据index获取对应的dataBuffer data_addr = acl.get_data_buffer_addr(data_buffer) // 获取data的Device指针地址 acl.rt.free(data_addr) // 释放Device内存 acl.update_data_buffer(data_buffer, 0, 0) // 重置dataBuffer,以便下次推理 |
返回值说明
返回值 |
说明 |
---|---|
ret |
int,错误码,返回0表示成功,返回其它值表示失败。 |
约束说明
- 若由于业务需求,必须在多线程中使用同一个“model_id”,则用户线程间需加锁,保证刷新输入输出内存、保证执行是连续操作,例如:
// 线程A的接口调用顺序: lock(handle1) -> acl.rt.memcpy刷新输入输出内存 -> acl.mdl.execute执行推理 -> unlock(handle1) // 线程B的接口调用顺序: lock(handle1) -> acl.rt.memcpy刷新输入输出内存 -> acl.mdl.execute执行推理 -> unlock(handle1)
- 模型加载、模型执行、模型卸载的操作必须在同一个Context下(关于Context的创建请参见acl.rt.create_context)。
- 存放模型输入/输出数据的内存,可以使用以下接口申请:acl.rt.malloc、acl.rt.malloc_host、acl.rt.malloc_cached接口、acl.media.dvpp_malloc接口或acl.himpi.dvpp_malloc接口。
其中:
- 内存申请接口的具体使用场景及约束请参见相关接口的详细说明。
- 当应用程序在Device上调用acl.rt.malloc_host接口申请内存时,该内存为Device内存。
- acl.media.dvpp_malloc接口和acl.himpi.dvpp_malloc接口是媒体数据处理功能专用的内存申请接口,一般从性能角度,为了减少拷贝,媒体数据处理的输出作为模型推理的输入,实现内存复用。
- 由于硬件对内存有对齐和补齐要求,若用户使用这些接口申请大块内存并自行划分、管理内存时,需满足对应接口的对齐和补齐约束,请参见内存二次分配管理。