logo 🤗

技术视野

聚焦科技前沿,分享技术解析,洞见未来趋势。在这里,与您一起探索人工智能的无限可能,共赴技术盛宴。

编译阶段

  1. 克隆源码
git clone git@github.com:NVIDIA/TensorRT-LLM.git
cd TensorRT-LLM
git lfs install
git lfs pull
  1. 更新第三方子项目源码
git submodule update --init --recursive
  1. 编译(第一次编译会拉一个镜像,耐心等待),注意:直接make是构建开发环境,开发环境不会将trt-llm编译进去,所以这里用了make release_build来构建正式版,编译大概需要一个小时,可以耐心等待。
cd docker
make release_build
  1. 编译完成后可以看到一个叫tensorrt_llm/release:latest的镜像。

运行阶段

  1. 尝试运行该镜像
docker run --gpus all \
  --name trt_llm \
  -d \
  --ipc=host \
  --ulimit memlock=-1 \
  --restart=always \
  --ulimit stack=67108864 \
  tensorrt_llm/release sleep 8640000
  1. 进入容器
docker exec -it trt_llm /bin/bash
  1. 容器里面测一下nvidia-smi命令
  2. 再看看有没有tensorrt-llm
pip list | grep tensorrt
  • 输出结果:
tensorrt                  9.1.0.post12.dev4
tensorrt-llm              0.5.0
torch-tensorrt            2.0.0.dev0

------------------------------------------------------------------------------------------------------
2023-10-20 17:02 更新

才发现官方有编译说明,建议参考官方的编译说明,能够大幅度减少编译时间:https://github.com/NVIDIA/TensorRT-LLM/blob/release/0.5.0/docs/source/installation.md#fetch-the-sources

版权属于:tlntin
作品采用:本作品采用 知识共享署名-相同方式共享 4.0 国际许可协议 进行许可。
更新于: 2023年10月21日 10:17


39 文章数
5 分类数
40 页面数
已在风雨中度过 1年160天12小时25分
目录
来自 《docker编译TensorRT-LLM镜像》
暗黑模式
暗黑模式
返回顶部
暗黑模式
暗黑模式
返回顶部