昇腾社区首页
中文
注册

纯模型使用

以InternVL2.5模型为例,执行纯模型推理步骤如下:

  1. 进入容器。
    docker exec -it {docker_name} bash
  2. 安装相关配套以后,设置环境变量,以下为MindIE镜像场景时的默认安装路径。
    # 配置CANN环境,默认安装在/usr/local目录下
    source /usr/local/Ascend/ascend-toolkit/set_env.sh
    # 配置加速库环境
    source /usr/local/Ascend/nnal/atb/set_env.sh
    # 配置MindIE环境变量
    source /usr/local/Ascend/mindie/latest/mindie-service/set_env.sh
    # 配置模型仓环境变量
    source /usr/local/Ascend/atb-models/set_env.sh
  3. 安装模型的第三方依赖,注意根据模型名称选择正确的requirements文件进行安装,确保第三方依赖安装正确。此处同样以InternVL2.5为例:
    pip install -r ${llm_path}/requirements/models/requirements_internvl.txt
  1. 执行启动脚本,进行推理。
    对话测试:
    bash ${llm_path}/examples/models/internvl/run_pa.sh --run (--trust_remote_code)${weight_path} ${image_path} 

    性能测试:

    bash ${llm_path}/examples/models/internvl/run_pa.sh --performance (--trust_remote_code) ${weight_path} ${image_path} 
    表1 可传入参数说明

    变量名

    含义

    llm_path

    模型仓所在路径。

    若使用MindIE镜像,默认路径为: /usr/local/Ascend/atb-models/

    trust_remote_code

    是否信任本地的可执行文件,默认不执行。传入此参数,则信任。

    weight_path

    模型权重路径。

    image_path

    图片所在路径。

  2. 纯模型启动推理成功,如下图所示: