deepseek本地部署教程

一、需要哪些工具?

下载ollama:地址:点击跳转

根据电脑版本下载即可。chatbox下载:下载地址

Ollama 是一个专注于本地化部署和运行大语言模型的工具,支持用户在本地设备上高效地运行和微调各种开源大模型,尤其适合注重数据隐私和自定义需求的开发者。

Chatbox 是一个开源的桌面端 ChatGPT 客户端,提供简洁易用的界面,支持多平台运行,方便用户快速接入 OpenAI 或其他大模型 API,提升对话体验。

简单来说:ollama类似于Anaconda,而chatbox类似于pycharm或者vscode。

二、安装配置大模型
1.安装ollama

这个安装默认安装到C盘,其实可以安装到其他盘,请看下文

### DeepSeek 本地部署教程 #### 环境准备 ##### 硬件需求 最低配置为 CPU 支持 AVX2 指令集,配备 16GB 内存以及至少 30GB 的存储空间。为了获得更佳性能,建议采用 NVIDIA GPU(如 RTX 3090 或更新型号),搭配 32GB 内存和不少于 50GB 存储的空间[^1]。 ##### 软件依赖 操作系统应选择 Windows、macOS 或 Linux 中的一种。当计划使用 Open Web UI 进行交互时,则需预先安装 Docker 工具。 #### 安装方法 ##### 使用 LM Studio 部署 - **下载并安装 LM Studio**:前往官方页面获取对应操作系统的最新版 LM Studio 并完成常规安装过程。 - **下载 DeepSeek R1 模型**:启动 LM Studio 后转至 Discover 页面搜索 "DeepSeek R1" 关键词。对于搭载 Apple 处理器的设备,请确认已勾选 MLX 参数;而对于基于 Windows 和 Linux 的平台则选取 GGUF 版本进行下载[^2]。 - **加载模型文件**:一旦下载完毕,在 Local Models 列表内定位到刚获取的 DeepSeek R1 条目并通过点击 Load 实现加载动作。 - **激活本地服务端口**:切换回 Developer 分区执行 Start Server 命令直至可通过浏览器正常访问 `http://localhost:1234` 地址表明一切顺利运作中。 ##### 使用 Ollama 方式部署 - **获取并设置 Ollama 应用程序**:参照官方网站指引取得适用于当前计算节点架构类型的安装包,并依照提示逐步推进直到最终确立其可用状态——即通过命令行工具验证返回预期版本信息(例如显示 ollama version is 0.5.6 表明成功)即可。 ```bash ollama --version ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

码农汉子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值