Ollama 可以在 Windows 上运行了

0. 引言

Ollama 终于可以在 Windows 上运行了,一直以来都是 “Coming soon”。
在这里插入图片描述
运行 Mixtral 8*7B 试了一下,推理速度和推理效果都很不错。
在这里插入图片描述
而且模型的下载速度也很快,我用的联通1000M网络,大概90M~150M/s波动。

在这里插入图片描述

1. 下载 Ollma 安装文件

访问 https://ollama.com/download,选择 Windows,单击 “Download for Windows (Preview)” 进行下载。

在这里插入图片描述

2. 安装 Ollama

双击下载的 “OllamaSetup.exe”,直接安装就可以了。

3. 使用 Ollama

访问

<think>好的,我现在需要帮助用户找到在Windows系统上将Ollama安装到D盘的方法。首先,我应该回顾用户提供的引用内容,特别是引用[1]和引用[2],因为这些可能包含相关信息。 用户提到引用[1]是关于Windows安装与配置Ollama的步骤,包括下载、环境变量配置、运行和验证。引用[2]则详细说明了如何通过设置OLLAMA_MODELS环境变量来改变模型存储路径到D盘,但可能默认安装路径还是在C盘。用户的问题是如何将Ollama本身安装在D盘,而不仅仅是模型存储的位置。 首先,我需要确认Ollama的默认安装路径是否允许更改。通常,Windows安装程序有时会默认安装到C盘的Program Files目录,但有些软件允许在安装过程中选择目录。但根据引用[2]中的描述,安装过程可能没有提到自定义安装路径,而是通过环境变量来调整模型存储位置。因此,用户可能需要手动更改安装路径或使用符号链接等方法将Ollama主程序移动到D盘。 接下来,我需要检查是否有官方文档或社区建议的方法来更改安装目录。如果官方安装程序不支持自定义路径,可能需要手动移动安装文件夹,然后调整环境变量和相关注册表设置。此外,可能需要设置OLLAMA_MODELS环境变量到D盘,如引用[2]所述,但这影响的是模型存储而非程序本身。 可能的步骤包括:1. 下载安装程序,安装到默认路径,然后手动将安装目录移动到D盘,并更新环境变量和快捷方式。2. 使用符号链接将C盘的Ollama目录链接到D盘的目标位置。3. 在安装前通过命令行参数指定安装路径,如果安装程序支持的话。 此外,需要考虑权限问题,确保用户有权限写入D盘的目标文件夹,并在移动后检查服务是否正常运行,因为Ollama可能作为服务安装,路径变更可能导致服务启动失败,需要重新配置服务路径。 最后,总结步骤,确保用户能够安全地将Ollama安装到D盘,并验证安装是否成功。同时,提醒用户设置OLLAMA_MODELS环境变量以节省C盘空间。</think>以下是Windows系统将Ollama安装到D盘的详细教程,结合环境变量配置实现存储路径迁移: ### 一、自定义安装路径步骤 1. **官网下载安装包** 访问[Ollama官网](https://ollama.ai/)下载`.exe`安装程序 2. **手动修改安装路径** 双击安装时,安装程序默认路径为`C:\Program Files\Ollama`,此时需: - 点击路径输入框右侧的**Browse**按钮 - 选择`D:\Program Files\Ollama`作为新路径 - 完成安装(若安装程序强制C盘安装,请继续看第二步方法) 3. **符号链接迁移方案**(适用于强制C盘安装) ```powershell # 管理员身份运行PowerShell mv "C:\Program Files\Ollama" "D:\Ollama" cmd /c mklink /J "C:\Program Files\Ollama" "D:\Ollama" ``` ### 二、关键环境变量配置[^2] | 变量名 | 示例值 | 作用 | |--------|--------|------| | Path | `D:\Ollama` | 确保命令行可访问ollama.exe | | OLLAMA_MODELS | `D:\Ollama\models` | 模型文件存储位置 | 配置方法: 1. Win+S搜索`环境变量` 2. 选择`编辑系统环境变量` > `环境变量` 3. 在`系统变量`区域新建/修改上述变量 ### 三、验证安装 ```powershell ollama --version # 应显示版本号 ollama run llama3 # 测试模型下载是否存储到D盘 ``` ### 四、Python调用验证 ```python from langchain_community.llms import Ollama llm = Ollama(base_url='http://localhost:11434', model="llama3") print(llm.invoke("为什么天空是蓝色的?")) ```
评论 38
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值