简单3步部署本地国产大模型DeepSeek大模型
DeepSeek是最近非常火的开源大模型,国产大模型 DeepSeek 凭借其优异的性能和对硬件资源的友好性,受到了众多开发者的关注。
无奈,在使用时候deepseek总是提示服务器繁忙,请稍后再试。
本文将介绍如何通过简单 3 步在本地部署 DeepSeek 大模型,让你能够轻松体验这一强大的 AI 工具。
Deepseek对世界的影响
改变AI行业格局
-
冲击国际AI竞争态势:打破了美国等西方国家的AI巨头长期领先的局面,使全球AI竞争进入技术多极化时代,如微软、亚马逊云科技、英伟达等国际科技巨头纷纷宣布接入DeepSeek。
-
引发行业洗牌:其他AI公司感受到压力,加快技术研发和创新步伐,如OpenAI紧急上线新一代推理模型,阿里云发布升级版通义千问旗舰模型。
影响全球科技股市场
-
引发股价波动:英伟达等芯片制造商以及美国的微软、Meta和谷歌母公司Alphabet等科技巨头的股价受到冲击。
-
改变投资风向:吸引了大量资本的关注,让投资者对中国的AI产业有了更高的期待,可能会导致更多的资金流向中国的AI企业。
推动全球AI技术发展
-
提供技术思路:在模型架构、算法等方面实现了多项创新,如采用创新性的混合专家架构等,为全球AI研究人员提供了新的思路。
-
加速技术普及:开源策略让更多的开发者和企业能够接触到先进的AI技术,降低了AI技术的使用门槛,加速其在各个领域的普及。
影响社会文化领域
-
改变工作生活方式:在自然语言处理等方面的能力,可提高翻译、写作、代码生成等工作效率,在制定旅行攻略、翻译外语等日常生活场景中也广泛应用。
-
引发伦理监管讨论:国际社会对AI伦理问题关注度提升,数据安全、隐私保护和内容监管等问题成为焦点,促使各国制定更严格的AI大模型监管政策。
环境准备
部署方案:Ollama + DeepSeek-R1 + Open WebUI
笔者的电脑硬件配置如下:
系统: Window11
CPU: 13th i7-13700KF
内存: 32G
显卡:Nvidia GeForce RTX 4070Ti
可以运行大模型deepseek-r1的哪个版本的大模型?
问deepseek得到的回答:
最佳选择:优先尝试 DeepSeek-R1-7B 4-bit量化版,平衡速度和性能;若需要更高精度,可测试 DeepSeek-R1-13B 4-bit量化版(需确保显存无其他占用)。建议关注官方发布的轻量化版本或社区优化方案(如GPTQ)。
什么是Ollama
Ollama是一个开源项目,旨在让用户能够轻松地在其本地计算机上运行大型语言模型(LLM),是一个开源的大型语言模型服务。它支持各种LLM,包括Llama 3、Mistral和Gemma。
提供了类似OpenAI的API接口和聊天界面,可以非常方便地部署最新版本的GPT模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。
Ollama官网: https://ollama.com/