Ollama 本地部署


前言

Ollama是一个易于使用的本地大模型运行框架,支持Mac、Windows和WSL2环境。文章介绍了如何在Widows上安装Ollama。

一、Ollama是什么?

Ollama 是一个简明易用的本地大模型运行框架,目前已经有 32 K star。随着围绕着 Ollama 的生态走向前台,更多用户也可以方便地在自己电脑上玩转大模型了,使用 Ollama 本地部署大模型在 mac 上尤其简单

GitHub地址:https://github.com/ollama/ollama

  • 能直接运行大模型,与大模型进行对话。
  • ollama 命令具有管理大模型的能力。
  • 利用 cpu 运行大模型。
  • 本地大模型安全可靠。
  • 终端直接开始聊天。
  • 社区提供了支持 web api 方式访问 WebUI。

二、使用步骤

1.安装 Ollama

Windows

Download
在这里插入图片描述

检验是否安装成功

输入 Ollama 命令,正常的得出命令行输出,表示已经安装成功,下面有 ollama 的常用命令:

ollama

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

2.运行

ollama 模型库

在这里插入图片描述
我们可以在 ollama.com/library中搜索已有我们想要的模型库。以下是一些流行的模型:

模型参数尺寸执行下载
Llama 27B3.8GBollama run llama2
gemma29B5.4GBollama run gemma2
qwen27B4.4GBollama run qwen2

运行模型

ollama run qwen2

直接使用 run 命令 + 模型名字就可以运行模型。如果之前没有下载过,那么会自动下载。下载完毕之后可以在终端中直接进行对话 qwen2 模型了。

提问

在这里插入图片描述

修改配置(可选)如果有个性化需求,需要修改默认配置:

配置文件在:/etc/systemd/system/ollama.service,采用任意编辑器打开,推荐 vim

1.默认只能本地访问,如果需要局域网内其他机器也能访问(比如嵌入式设别要访问本地电脑),需要对 HOST 进行配置,开启监听任何来源IP

[Service]   Environment="OLLAMA_HOST=0.0.0.0"   

2.如果需要更改模型存放位置,方便管理,需要对 OLLAMA_MODELS 进行配置:

[Service]   Environment="OLLAMA_MODELS=/data/ollama/models"   

3.不同操作系统,模型默认存放在:

macOS: ~/.ollama/models   Linux: /usr/share/ollama/.ollama/models   Windows: C:\Users\xxx\.ollama\models   

4.如果有多张 GPU,可以对 CUDA_VISIBLE_DEVICES 配置,指定运行的 GPU,默认使用多卡。

Environment="CUDA_VISIBLE_DEVICES=0,1"   

5.配置修改后,需要重启 ollama

systemctl daemon-reload   systemctl restart ollama   

注意:上面两条指令通常需要同时使用:只要你修改了任意服务的配置文件(如 .service 文件),都需要运行systemctl daemon-reload使更改生效。

参考

使用Ollama本地部署大模型

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值