LangChain-ChatGLM-Webui项目部署指南:从基础安装到API服务

LangChain-ChatGLM-Webui项目部署指南:从基础安装到API服务

项目概述

LangChain-ChatGLM-Webui是一个结合了LangChain框架与ChatGLM大语言模型的Web交互界面项目,为用户提供了便捷的大模型交互体验。本文将详细介绍该项目的多种部署方式,包括直接安装、Docker环境运行以及API服务部署。

基础环境准备

在开始部署前,请确保您的系统满足以下基本要求:

  • Python 3.8.1或更高版本
  • 已安装PyTorch深度学习框架
  • 建议使用NVIDIA GPU以获得更好的性能体验

直接安装方式

1. 获取项目代码

首先需要获取项目源代码,可以通过版本控制工具下载项目到本地。

2. 安装依赖包

进入项目目录后,执行以下命令安装所需依赖:

pip install -r requirements.txt

国内用户建议使用清华源加速下载:

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

3. 可选组件安装

如果需要使用ModelScope版本,需额外安装ModelScope包:

pip install modelscope==1.4.3

4. 启动应用程序

根据您选择的版本,启动方式有所不同:

  • Huggingface版本:直接执行python3 app.py
  • ModelScope版本:先进入modelscope目录再执行python3 app.py

Docker部署方案

基础Docker环境运行

  1. 拉取并运行基础镜像:
docker run -it --rm --runtime=nvidia --gpus all --network host registry.cn-beijing.aliyuncs.com/public-development-resources/langchain-chatglm-webui:Base bash
  1. 在容器内获取项目代码并安装依赖

  2. 启动应用程序

简化版Docker运行

对于希望快速体验的用户,可以直接运行预配置好的镜像:

docker run -d --name langchain-ChatGLM-webui --runtime=nvidia --gpus all --network host registry.cn-beijing.aliyuncs.com/public-development-resources/langchain-chatglm-webui:latest

运行后,通过浏览器访问http://服务器IP:7860即可使用Web界面。

数据持久化配置

为防止容器重启后需要重新下载模型,建议挂载缓存目录:

-v langchain-ChatGLM-webui-cache:/root/.cache/

API服务部署

项目支持通过Jina Serving提供API服务,便于集成到其他系统中。

1. 启动API服务

lc-serve deploy local jina_serving

2. API接口使用

初始化模型
curl -X 'POST' \
  'http://localhost:8080/reinit_model' \
  -H 'accept: application/json' \
  -H 'Content-Type: application/json' \
  -d '{
    "large_language_model": "ChatGLM-6B-int8",
    "embedding_model": "text2vec-base"
  }'
构建向量库
curl -X 'POST' \
  'http://localhost:8080/vector_store' \
  -H 'accept: application/json' \
  -H 'Content-Type: application/json' \
  -d '{
    "file_path": "./README.md"
  }'
发送查询请求
curl -X 'POST' \
  'http://localhost:8080/predict' \
  -H 'accept: application/json' \
  -H 'Content-Type: application/json' \
  -d '{
    "input": "ChatGLM-6B的具体局限性?"
    "use_web": true, 
    "top_k": 3,  
    "history_len": 1, 
    "temperature": 0.01, 
    "top_p": 0.1, 
    "history": []
  }'

3. Docker快速启动API服务

docker run -d --name LangChain-ChatGLM-Webui --runtime=nvidia --gpus all --network host registry.cn-beijing.aliyuncs.com/public-development-resources/langchain-chatglm-webui:api

部署建议

  1. 硬件配置:建议使用至少16GB显存的NVIDIA GPU以获得流畅体验
  2. 网络环境:国内用户建议配置镜像源加速下载
  3. 模型存储:本地模型可以放置在指定目录下,便于管理和重用
  4. 生产环境:建议使用Docker部署,便于环境隔离和版本控制

通过以上多种部署方式,用户可以根据自身需求和技术能力选择最适合的方案来体验LangChain-ChatGLM-Webui项目。无论是开发测试还是生产部署,都能找到对应的解决方案。

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

胡蓓怡

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值