ubuntu24部署ollama端口为8090
时间: 2025-07-09 21:38:53 浏览: 6
<think>嗯,用户想要在Ubuntu 24上部署Ollama,并且把端口改成8090。首先,我需要确认Ollama是什么。Ollama是一个用于本地运行大型语言模型的工具,对吧?用户可能希望在自己的服务器上部署这个服务,并通过指定的端口访问。
首先,我得回想一下在Ubuntu上安装软件的常用方法。Ollama可能有几种安装方式,比如使用curl下载安装脚本,或者通过官方的仓库添加。用户用的是Ubuntu 24,可能还是较新的版本,所以需要确保安装步骤兼容。
然后,关于修改端口的问题。默认情况下,Ollama可能使用某个端口,比如11434,用户需要改成8090。这可能需要修改Ollama的配置文件或者环境变量。需要找到Ollama的配置文件位置,可能是在/etc/systemd/system/下的服务文件,或者用户目录下的某个配置文件。
接下来,步骤大概分为安装Ollama、配置端口、重启服务、验证配置是否正确。另外,防火墙设置也是需要考虑的,如果Ubuntu启用了UFW或者其他防火墙,需要开放8090端口。
可能会遇到的问题包括:安装脚本无法下载,服务启动失败,端口被占用,或者防火墙阻止访问。需要提示用户检查这些方面,比如用systemctl status ollama.service查看服务状态,用ss -tuln | grep 8090确认端口是否监听,以及UFW的状态。
另外,用户可能需要通过curl或者浏览器访问接口,测试服务是否正常运行。例如,curl http://localhost:8090/api/tags应该能列出模型。
需要注意权限问题,安装过程中是否需要sudo,以及服务文件的环境变量配置是否正确。还有,Ollama更新后是否需要重新配置,或者配置文件的位置是否改变。
最后,用户可能希望这个服务在开机时自动启动,所以需要启用systemd服务。同时,提醒用户如果配置有误,如何回退或者排查日志,比如journalctl -u ollama.service -b查看日志。
总结步骤应该是:安装Ollama,修改系统服务文件设置环境变量,重启服务,防火墙配置,测试连接。每个步骤都要详细说明,确保用户能一步步操作,避免遗漏关键点。</think>在Ubuntu 24系统上部署Ollama并指定端口为8090的完整步骤如下:
---
### 一、安装Ollama
1. **一键安装脚本**
```bash
curl -fsSL https://ollama.com/install.sh | sh
```
安装完成后会自动创建`ollama`用户和系统服务
2. **验证安装**
```bash
ollama --version # 应输出类似"ollama version 0.1.xx"
```
---
### 二、修改服务端口
1. **编辑systemd服务文件**
```bash
sudo systemctl edit --full ollama.service
```
2. **在`[Service]`段添加环境变量**
```ini
Environment="OLLAMA_HOST=0.0.0.0:8090"
```
完整配置示例:
```ini
[Service]
Environment="OLLAMA_HOST=0.0.0.0:8090"
User=ollama
...
```
3. **重载服务配置**
```bash
sudo systemctl daemon-reload
sudo systemctl restart ollama
```
---
### 三、防火墙配置
```bash
sudo ufw allow 8090/tcp # 开放端口
sudo ufw reload # 重载规则
```
---
### 四、验证部署
1. **检查端口监听**
```bash
ss -tuln | grep 8090
# 应显示:tcp LISTEN 0 4096 0.0.0.0:8090
```
2. **测试API访问**
```bash
curl http://localhost:8090/api/tags # 应返回JSON数据
```
---
### 五、使用示例
1. **运行模型**
```bash
ollama run llama3 # 首次运行自动下载模型
```
2. **远程访问**
其他设备可通过`http://[服务器IP]:8090`访问
---
### 常见问题排查
1. **服务启动失败**
```bash
journalctl -u ollama.service -b --no-pager # 查看详细日志
```
2. **端口冲突**
```bash
sudo lsof -i :8090 # 检查端口占用情况
```
3. **模型存储位置**
默认路径:`/usr/share/ollama/.ollama/models`
---
通过以上步骤即可完成Ollama在8090端口的部署。建议后续通过Nginx配置反向代理并添加SSL证书以实现安全访问。
阅读全文
相关推荐


















