目录
DeepSeek号称模型界的拼夕夕,凭借其先进的算法+蒸馏技术,使得低成本小尺寸模型拥有顶尖模型的能力。有力推动了国内AI技术的发展,用户数量的快速增长导致服务器一度繁忙。为缓解这一问题,用户可选择在本地电脑上部署:只需下载Ollama和DeepSeek-R模型,且对电脑配置无硬性要求。当然,硬件配置越高,推理性能和响应速度也会相应提升。
1 本地部署要求及适用场景
模型参数 | CPU要求 | 内存要求 | 显存要求 | 硬盘要求 | 适用场景 |
---|---|---|---|---|---|
< |
目录
DeepSeek号称模型界的拼夕夕,凭借其先进的算法+蒸馏技术,使得低成本小尺寸模型拥有顶尖模型的能力。有力推动了国内AI技术的发展,用户数量的快速增长导致服务器一度繁忙。为缓解这一问题,用户可选择在本地电脑上部署:只需下载Ollama和DeepSeek-R模型,且对电脑配置无硬性要求。当然,硬件配置越高,推理性能和响应速度也会相应提升。
模型参数 | CPU要求 | 内存要求 | 显存要求 | 硬盘要求 | 适用场景 |
---|---|---|---|---|---|
< |