函数:load_from_file_with_mem
产品支持情况
| 
          产品  | 
        
          是否支持  | 
       
|---|---|
| 
          | 
        
          √  | 
       
| 
          | 
        
          √  | 
       
| 
          | 
        
          √  | 
       
| 
          | 
        
          √  | 
       
| 
          | 
        
          √  | 
       
| 
          | 
        
          √  | 
       
使用说明
| 
          C函数原型  | 
        
          aclError aclmdlLoadFromFileWithMem(const char *modelPath, uint32_t *modelId, void *workPtr, size_t workSize, void *weightPtr, size_t weightSize)  | 
       
|---|---|
| 
          Python函数  | 
        
          model_id, ret = acl.mdl.load_from_file_with_mem(model_path, work_ptr, work_size, weight_ptr, weight_size)  | 
       
| 
          函数功能  | 
        
          从文件加载离线模型数据(适配昇腾AI处理器的离线模型),由用户自行管理模型运行的内存。 系统完成模型加载后,返回的模型ID,作为后续操作时用于识别模型的标志。  | 
       
| 
          输入说明  | 
        
          model_path:str,离线模型文件的存储路径,路径中包含文件名。运行程序(APP)的用户需要对该存储路径有访问权限。 此处的离线模型文件是适配昇腾AI处理器的离线模型,即*.om文件。 work_ptr:int,Device上模型所需工作内存(存放模型输入/输出等数据)的指针地址,由用户自行管理,模型执行过程中不能释放该内存。如果在该参数处传入0,表示由系统管理内存。 
           说明: 
           
         由用户自行管理工作内存时,如果多个模型串行执行,可共用同一个工作内存,但用户需确保模型的串行执行顺序,工作内存的大小需按多个模型中最大工作内存的大小来申请,例如通过以下方式保证串行: 
 work_size:int,模型所需工作内存的大小,单位Byte。“work_ptr”为0时无效。 weight_ptr:int,Device上模型权值内存(存放权值数据)的指针地址,由用户自行管理,模型执行过程中不能释放该内存。如果在该参数处传入0,表示由系统管理内存。 
           说明: 
           
         使用用户自行管理权值内存时,在多线程场景下,对于同一个模型,如果在每个线程中都加载了一次,可选择共用“weight_ptr”的方式,因为“weight_ptr”内存在推理过程中是只读的。 此处需注意,在共用“weight_ptr”期间,不能释放“weight_ptr”。 weight_size:int,模型所需权值内存的大小,单位Byte。“weight_ptr”为0时无效。  | 
       
| 
          返回值说明  | 
        
          model_id:int,系统完成模型加载后生成的模型ID。 ret:int,错误码。 
  | 
       
| 
          约束说明  | 
        
          模型加载、模型执行、模型卸载的操作必须在同一个Context下(关于Context的创建请参见acl.rt.set_device、acl.rt.create_context)。  | 
       
| 
          相关接口  | 
        
          当前还提供了acl.mdl.set_config_opt接口、acl.mdl.load_with_config接口来实现模型加载,通过配置对象中的属性来区分,在加载模型时是从文件加载,还是从内存加载,以及内存是由系统内部管理,还是由用户管理。  | 
       
| 
          参考资源  |