FastGPT 通过 AI Proxy 接入模型

通过 AI Proxy 接入模型

FastGPT 4.8.23 版本开始,引入 AI Proxy 来进一步方便模型的配置。

AI Proxy 与 One API 类似,也是作为一个 OpenAI 接口管理 & 分发系统,可以通过标准的 OpenAI API 格式访问所有的大模型,开箱即用。

部署

Docker 版本

docker-compose.yml 文件已加入了 AI Proxy 配置,可直接使用。点击查看最新的 yml 配置

从旧版升级的用户,可以复制 yml 里,ai proxy 的配置,加入到旧的 yml 文件中。

运行原理

AI proxy 核心模块:

  1. 渠道管理:管理各家模型提供商的 API Key 和可用模型列表。
  2. 模型调用:根据请求的模型,选中对应的渠道;根据渠道的 API 格式,构造请求体,发送请求;格式化响应体成标准格式返回。
  3. 调用日志:详细记录模型调用的日志,并在错误时候可以记录其入参和报错信息,方便排查。

运行流程:

aiproxy12

在 FastGPT 中使用

AI proxy 相关功能,可以在账号-模型提供商页面找到。

1. 创建渠道

模型提供商的配置页面,点击模型渠道,进入渠道配置页面

aiproxy1

点击右上角的“新增渠道”,即可进入渠道配置页面

aiproxy2

以阿里云的模型为例,进行如下配置

aiproxy3

  1. 渠道名:展示在外部的渠道名称,仅作标识;
  2. 厂商:模型对应的厂商,不同厂商对应不同的默认地址和 API 密钥格式;
  3. 模型:当前渠道具体可以使用的模型,系统内置了主流的一些模型,如果下拉框中没有想要的选项,可以点击“新增模型”,增加自定义模型;
  4. 模型映射:将 FastGPT 请求的模型,映射到具体提供的模型上。例如:
{
    "gpt-4o-test": "gpt-4o",
}

FatGPT 中的模型为 gpt-4o-test,向 AI Proxy 发起请求时也是 gpt-4o-test。AI proxy 在向上游发送请求时,实际的modelgpt-4o

  1. 代理地址:具体请求的地址,系统给每个主流渠道配置了默认的地址,如果无需改动则不用填。
  2. API 密钥:从模型厂商处获取的 API 凭证。注意部分厂商需要提供多个密钥组合,可以根据提示进行输入。

最后点击“新增”,就能在“模型渠道”下看到刚刚配置的渠道

aiproxy4

2. 渠道测试

然后可以对渠道进行测试,确保配置的模型有效

aiproxy5

点击“模型测试”,可以看到配置的模型列表,点击“开始测试”

aiproxy6

等待模型测试完成后,会输出每个模型的测试结果以及请求时长

aiproxy7

3. 启用模型

最后在模型配置中,可以选择启用对应的模型,这样就能在平台中使用了,更多模型配置可以参考模型配置

aiproxy8

其他功能介绍

优先级

范围1~100。数值越大,越容易被优先选中。

aiproxy9

启用/禁用

在渠道右侧的控制菜单中,还可以控制渠道的启用或禁用,被禁用的渠道将无法再提供模型服务

aiproxy10

调用日志

调用日志 页面,会展示发送到模型处的请求记录,包括具体的输入输出 tokens、请求时间、请求耗时、请求地址等等。错误的请求,则会详细的入参和错误信息,方便排查,但仅会保留 1 小时(环境变量里可配置)。

aiproxy11

从 OneAPI 迁移到 AI Proxy

可以从任意终端,发起 1 个 HTTP 请求。其中 {{host}} 替换成 AI Proxy 地址,{{admin_key}} 替换成 AI Proxy 中 ADMIN_KEY 的值。

Body 参数 dsn 为 OneAPI 的 mysql 连接串。

curl --location --request POST '{{host}}/api/channels/import/oneapi' \
--header 'Authorization: Bearer {{admin_key}}' \
--header 'Content-Type: application/json' \
--data-raw '{
    "dsn": "mysql://root:s5mfkwst@tcp(dbconn.sealoshzh.site:33123)/mydb"
}'

执行成功的情况下会返回 “success”: true

脚本目前不是完全准,仅是简单的做数据映射,主要是迁移代理地址模型API 密钥,建议迁移后再进行手动检查。


links

通过 AI Proxy 接入模型 | FastGPT

<think>嗯,用户想知道如何将OpenAI模型接入到OpenWebUI的具体步骤。首先,我需要回忆一下OpenWebUI的相关信息。根据引用[1],Open WebUI是一个支持多种LLM运行器的平台,包括Ollama和OpenAI兼容的API。所以,接入OpenAI模型应该是可行的。 接下来,用户提到的是OpenAI模型,可能需要使用OpenAI的API密钥。引用[5]中提到,腾讯混元大模型接入需要API密钥,可能类似,所以OpenAI接入应该也需要类似的步骤。比如,在配置文件中设置API密钥和基础URL。 然后,我需要考虑安装和配置OpenWebUI的环境。引用[4]提到了使用Docker安装OpenWebUI,所以可能需要先安装Docker,然后拉取镜像。但用户可能已经安装好了,所以需要分步骤说明:比如安装Docker、拉取镜像、配置环境变量等。 另外,引用[3]和[4]提到了配置vLLM和本地模型,但用户的问题是关于OpenAI的,所以可能不需要这部分。但需要确认是否需要设置代理或API端点。比如,如果用户使用本地的OpenAI兼容API,可能需要指定基础URL,如引用[5]中的例子。 然后,操作流程可能包括:安装Docker,拉取OpenWebUI镜像,创建配置文件,设置环境变量(如API密钥、模型名称、基础URL等),启动容器,最后访问Web界面进行测试。需要确保环境变量正确,特别是OPENAI_API_KEY和OPENAI_API_BASE_URL是否正确指向用户的OpenAI服务。 可能遇到的问题包括网络配置、API密钥权限、端口冲突等,需要在注意事项中提到。比如,如果用户使用官方OpenAI服务,基础URL是默认的,否则需要自定义。同时,模型名称需要与API支持的模型一致,否则会报错。 最后,生成相关问题需要考虑用户可能的后续需求,比如本地模型接入、多模型管理、API调用失败处理等,参考之前的引用内容,比如引用[2]提到注册国产模型平台并接入Web UI,引用[3]关于vLLM的配置,可以作为相关问题的基础。</think>### OpenWebUI 接入 OpenAI 模型操作步骤 #### 一、环境准备 1. **安装 Docker** 确保本地已安装 Docker 环境(Windows/macOS/Linux 均支持)[^4]。 2. **拉取 OpenWebUI 镜像** 执行以下命令拉取官方镜像: ```bash docker pull ghcr.io/open-webui/open-webui:main ``` #### 二、配置 OpenAI 参数 1. **获取 OpenAI API Key** 登录 OpenAI 平台创建 API Key(需账户权限支持)。 2. **创建配置文件** 新建 `config.yaml` 文件,内容如下: ```yaml default_runner: openai runners: openai: api_key: "sk-xxx" # 替换为你的 OpenAI API Key base_url: "https://api.openai.com/v1" # 官方 API 地址(若使用代理需修改) models: - gpt-3.5-turbo - gpt-4 ``` #### 三、启动 OpenWebUI 容器 1. **运行 Docker 命令** ```bash docker run -d \ -p 3000:8080 \ -v open-webui:/app/backend/data \ -v ./config.yaml:/app/backend/config.yaml \ --name open-webui \ ghcr.io/open-webui/open-webui:main ``` - `-p 3000:8080`:将容器端口映射到本地 3000 端口 - `-v` 挂载配置文件和数据卷 #### 四、验证接入 1. **访问 Web 界面** 浏览器打开 `http://localhost:3000`,登录后选择 **OpenAI** 作为推理引擎。 2. **测试模型调用** 在聊天界面输入问题,若正常返回结果则配置成功。 #### 注意事项 1. **网络代理问题** 若需通过代理访问 OpenAI,需修改 `base_url` 为代理地址(例如 `https://your-proxy.com/v1`)[^5]。 2. **模型兼容性** 确保配置文件中 `models` 名称与 OpenAI API 支持的模型完全一致[^1]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

学亮编程手记

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值