公司数据不泄露,DeepSeek R1本地化部署+web端访问+个人知识库搭建与使用,喂饭级实操教程,老旧笔记本竟跑出企业级AI

1 Ollama PC本地化部署

1.1 下载Ollama

https://ollama.com/

目前Ollama支持macOS、Linux、Windows,选择相应的系统,macOS和Windows直接下载,Linux系统需要执行下面命令:

curl -fsSL https://ollama.com/install.sh | sh

荣姐这次选择Windows本地下载,直接安装即可。

1.2 选择模型

点击Models,第一条就是deepseek-r1模型。或者搜索框输入模型名称进行搜索。

点击进去后,查看各个模型,不同模型执行的命令不同,最后部分看你选择的参数模型。

7b命令:ollama run deepseek-r1:7b

1.5b命令:ollama run deepseek-r1:1.5b

DeepSeek R1提供多个版本,参数量越大,模型通常越强大,但也需要更多的计算资源。

比如1.5B代表有15亿个参数。

具体选择哪一个看你硬件设备了。

1.3 运行命令

荣姐用的电脑配置不高,选了1.5b。如果你配置高,可以选择更大的,毕竟越大效果越好。

1.4 效果测试

当界面出现success显示安装成功。

输入你是谁,看到deepseek的回答。

实操演示视频:

2 DeepSeek+Chatbox网页端

本地命令行使用还是不太直观,可以选择Chatbox进行网页端访问,提高可交互性。

Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用。

本地使用Ollama部署完成后,可以使用Chatbox进行调用。

根据官方文档给出的步骤进行配置

https://chatboxai.app/zh/help-center/connect-chatbox-remote-ollama-service-guide

2.1 环境变量配置

默认情况下,Ollama 服务仅在本地运行,不对外提供服务。

要使 Ollama 服务能够对外提供服务,你需要设置以下两个环境变量:

OLLAMA_HOST:0.0.0.0

OLLAMA_ORIGINS:*

在 Windows 上,Ollama 会继承你的用户和系统环境变量。

1、通过任务栏退出 Ollama。

2、打开设置(Windows 11)或控制面板(Windows 10),并搜索“环境变量”。

3、点击编辑你账户的环境变量。

4、为你的用户账户编辑或创建新的变量 OLLAMA_HOST,值为 0.0.0.0; 为你的用户账户编辑或创建新的变量 OLLAMA_ORIGINS,值为 *。

5、点击确定/应用以保存设置。

6、从 Windows 开始菜单启动 Ollama 应用程序。

2.2 chatbox设置

1、打开官网:https://chatboxai.app/zh,选择启动网页版。

2、选择本地模型,如果找不到,点击左侧的设置按钮。

3、选择Ollama API。

4、选择模型,本地运行Ollama后会自动出现模型的选项,直接选择即可。

5、点击DISPLAY,选择简体中文,点击保存按钮。

6、在聊天窗口输入问题进行测试。

2.3 搭配GPTs使用

1、点击左侧我的搭档

2、选择一个你喜欢的应用,本示例选择夸夸机2.0

3、随便输入一个场景,看看大模型的回答。比如自嘲、尴尬、夸张的场景,看看他怎么花样夸你。

实操演示视频:

3 DeepSeek知识库搭建

我们还可以通过浏览器插件来访问本地部署的大模型,这个插件还支持本地知识库搭建。

1、安装插件Page Assist,搜索插件后添加至Chrome

2、选择本地搭建的模型,点击配置按钮,设置中文

3、RAG设置,模型选择本地搭建的。

4、点击左侧管理知识,可以添加本地知识库。

填写知识标题及上传文件,点击提交按钮。

状态为已完成就可以使用了。

新建聊天进行测试,在聊天窗口要记得点击右下角知识,选择刚才搭建的知识库名称,然后在上方看到就可以了。

对模型进行测试,看看是否可以根据知识库进行回答。

我问了一下知识库中的《量子纠缠通信:未来通信的革命》 价格是多少?

思考完成后,模型给出了最终答案,价格是299元。

荣姐上传知识库内容:为了测试方便,我只输入了5本虚构的书名和价格。

书名及价格:
1. 《量子纠缠通信:未来通信的革命》 - 价格:¥299
2. 《时间折叠理论:时间旅行的科学》 - 价格:¥349
3. 《暗物质能源:宇宙的未知宝藏》 - 价格:¥399
4. 《心灵感应网络:思维的直接交流》 - 价格:¥299
5. 《生物计算机:生物技术与计算的融合》 - 价格:¥499

跟着荣姐的操作步骤,就可以在本地成功搭建自己的私有知识库了!

在这里插入图片描述

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

<think>嗯,用户想在Linux系统上部署DeepSeek大语言模型,并设置支持局域网访问知识库。首先,我需要回顾一下之前提供的引用内容,看看有哪些步骤可以参考。 根据引用[1],用户提到使用Ollama和Page Assist浏览器插件来部署DeepSeek,并且目标是在局域网服务器部署,让其他电脑访问。所以第一步应该是安装Ollama。引用[2]里提到了在Ubuntu环境下使用llama.cpp进行CPUGPU混合推理,可能需要安装一些依赖项,比如build-essential、cmake、curl等。还有引用[3]提到设置Ollama服务主机的固定IP,确保局域网访问。 接下来,我需要整理步骤。首先安装Ollama,然后拉取DeepSeek模型。安装依赖项的时候,可能需要按照引用[2]中的命令执行,比如更新apt-get,安装必要的软件包。然后配置Ollama的网络设置,使其监听所有IP地址,这样其他局域网内的设备才能访问。引用[3]中提到了设置固定IP,这可能需要用户手动配置网络接口,比如修改/etc/netplan下的配置文件或者使用nmcli工具。 另外,关于知识库部分,用户可能想结合LangChain或类似框架来管理本地文档,构建RAG应用。需要安装LangChain,并编写Python代码来加载文档、处理文本、建立向量数据库,并通过Ollama的API进行交互。这部分可能需要示例代码,比如使用LangChain的文档加载器和文本分割器,然后使用HuggingFaceEmbeddings生成向量,最后用Chroma作为向量存储。 用户可能遇到的问题包括Ollama服务无法启动、局域网无法访问、模型加载失败等。这时候需要检查防火墙设置,确保11434开放,Ollama服务是否正确监听0.0.0.0,以及模型是否下载正确。 最后,生成相关问题时要考虑部署中的常见问题,比如性能优化、安全设置、模型微调等,以及如何扩展知识库的应用场景。</think>### 分步教程:Linux系统部署DeepSeek模型并支持局域网访问知识库 --- #### **一、基础环境部署** 1. **安装Ollama框架** 通过官方脚本安装Ollama服务(需联网): ```bash curl -fsSL https://ollama.com/install.sh | sh ``` 验证安装:`systemctl status ollama`[^1] 2. **拉取DeepSeek模型** 选择适合的模型版本(如`deepseek-llm:7b`): ```bash ollama pull deepseek-llm ``` 查看已安装模型:`ollama list` --- #### **二、配置局域网访问** 1. **设置Ollama监听地址** 修改服务配置文件,允许所有IP访问: ```bash sudo systemctl edit ollama.service ``` 在文件中添加: ```ini [Service] Environment="OLLAMA_HOST=0.0.0.0" ``` 重启服务:`sudo systemctl restart ollama`[^3] 2. **配置服务器固定IP** 通过`nmcli`设置静态IP(示例): ```bash sudo nmcli con mod "有线连接" ipv4.addresses 192.168.1.100/24 ipv4.gateway 192.168.1.1 ipv4.dns "8.8.8.8" ipv4.method manual sudo nmcli con up "有线连接" ``` 3. **防火墙放行口** 允许11434口通信: ```bash sudo ufw allow 11434/tcp ``` --- #### **三、知识库集成(RAG应用)** 1. **安装LangChain框架** 使用Python环境安装依赖: ```bash pip install langchain chromadb sentence-transformers ``` 2. **编写知识库处理脚本** ```python from langchain.document_loaders import DirectoryLoader from langchain.text_splitter import RecursiveCharacterTextSplitter from langchain.embeddings import HuggingFaceEmbeddings from langchain.vectorstores import Chroma # 加载本地文档 loader = DirectoryLoader('/path/to/docs', glob="**/*.txt") documents = loader.load() # 分割文本 text_splitter = RecursiveCharacterTextSplitter(chunk_size=500) texts = text_splitter.split_documents(documents) # 生成向量数据库 embeddings = HuggingFaceEmbeddings() vector_db = Chroma.from_documents(texts, embeddings, persist_directory="./chroma_db") ``` 3. **通过API调用模型** 使用CURL测试接口: ```bash curl http://服务器IP:11434/api/generate -d '{ "model": "deepseek-llm", "prompt": "如何解释量子纠缠?", "context": {"knowledge_base": "./chroma_db"} }' ``` --- #### **四、验证调试** 1. **局域网客户测试** 其他设备访问: ```python import requests response = requests.post('http://192.168.1.100:11434/api/chat', json={ "model": "deepseek-llm", "messages": [{"role": "user", "content": "简述相对论"}] }) print(response.json()) ``` 2. **常见问题排查** - **服务未启动**:检查`journalctl -u ollama.service` - **连接被拒绝**:确认防火墙和SELinux状态 - **模型加载慢**:添加`--n-gpu-layers 20`参数提升GPU利用率[^2] ---
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值