logo 🤗

技术视野

聚焦科技前沿,分享技术解析,洞见未来趋势。在这里,与您一起探索人工智能的无限可能,共赴技术盛宴。

  1. 部署Qwen-7B-Chat-TensorRT-LLM , 参考该项目:https://github.com/Tlntin/Qwen-7B-Chat-TensorRT-LLM ,需要部署api。
  2. 下载Langchain-Chatchat,当前最新版0.2.6
git clone https://github.com/chatchat-space/Langchain-Chatchat -b v0.2.6
  • 环境配置安装readme操作即可。
  • 模型下载可以忽略,如果网络好的话,可以在线下载。
  • 初始化配置,参考readme操作即可。
python copy_config_example.py
  1. 修改模型配置文件configs/model_config.py,修改LLM_MODELOpenAI
  • 修改前
# LLM 名称
LLM_MODEL = "chatglm2-6b"
  • 修改后
# LLM 名称
LLM_MODEL = "OpenAI"
  1. 修改模型配置文件configs/model_config.py,修改OpenAI的url地址为你部署TensorRT-LLM api的地址
  • 修改前
"OpenAI": {
        "model_name": "your openai model name(such as gpt-4)",
        "api_base_url": "https://api.openai.com/v1",
        "api_key": "your OPENAI_API_KEY",
        "openai_proxy": "",
    },
  • 修改后
"OpenAI": {
        "model_name": "gpt-3.5-turbo",
        "api_base_url": "http://127.0.0.1:8000/v1",
        "api_key": "",
        "openai_proxy": "",
    },
  1. 初始化启动数据
python init_database.py --recreate-vs
  1. 启动Langchain-Chatchat,会自动打开浏览器
python startup.py -a
  1. 再选择LLM模型部分,选择OpenAI (Running)即可,然后就可以愉快的聊天了。
  2. 如果要知识库问答。
  • 先选择知识库管理,新建知识库,然后上传任意一个文档上去,推荐点击一下根据源文件重建向量库
  • 回到对话,对话模式选择知识库问答,LLM模型选择OpenAI(Running),最下面的知识库,选择你刚刚新建的那个,然后即可在右边愉快的问答了。

版权属于:tlntin
作品采用:本作品采用 知识共享署名-相同方式共享 4.0 国际许可协议 进行许可。
更新于: 2023年10月24日 15:25


39 文章数
5 分类数
40 页面数
已在风雨中度过 1年160天12小时26分
目录
来自 《TensorRT-LLM + Langchain部署》
暗黑模式
暗黑模式
返回顶部
暗黑模式
暗黑模式
返回顶部