javaAI-01-AI入门

介绍

Hello各位兄弟姐妹大家好,我是黑马程序员的虎哥。

本套教程会以SpringAI为基础,讲解传统Java应用与DeepSeek这样的大模型开发结合的方案,科普一下AI大模型开发的知识,促进传统项目智能化。

如果觉得文章有帮助的话,希望大家点赞、转发支持一下!

AI时代Java程序员的出路在哪里?

2022年11月30日,OpenAI公司发布了GPT3.5模型,同时对外开放了ChatGPT产品。人工智能突然进入了普通人的生活中,各种AI应用如雨后春笋般出现。

在这里插入图片描述

不过,由于大模型研究的成本很高,大部分中小型企业只能望而却步,参与者有限,AI的发展也似乎陷入了瓶颈。

2025年1月20日,位于杭州的DeepSeek公司正式发布了具有划时代意义的DeepSeek-R1模型,该模型在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版,且训练成本仅为 560 万美元,远低于美国科技巨头的数亿美元乃至数十亿美元投入,这一突破彻底震惊了全球科技界。

DeepSeek的出现像是向一潭死水的AI领域投入了一颗巨石,引起了巨大的波澜。特别是其低廉的训练成本,让中小型企业有了参与AI开发的资格。

毫无疑问,接下来各行各业都将进入传统应用AI化、智能化的变革之中。Java更应该成为这场变革的引领者!

要知道,全球有25亿+的Java应用正在运行,超过90%的服务端应用都是采用Java语言!传统应用要向AI领域进军,最好的办法一定是使用Java语言。

然而,一直以来,AI开发似乎都是Python的强项,传统Java应用想要AI化,缺少完善的解决方案和即懂Java、又懂AI的人才,而这就是最大的机会

为什么是SpringAI

目前大模型应用开发最常见的框架就是LangChain,然而LangChain是基于Python语言,虽然有LangChain4j,但是对于大量使用Spring生态的应用来说,适配性就稍微差了些。

而Spring公司推出的SpringAI框架,充分利用了Spring框架中AOP、IOC的能力,可以与现有的Java项目无缝融合,非常方便。

当然,SpringAI要求的JDK版本至少是JDK17SpringBoot也必须是3.x的版本才可以,所以如果想要使用SpringAI,必须先升级JDK和SpringBoot版本才行。

如果是比较老的项目,也可以考虑采用LangChain4j,它要求的最低JDK版本为JDK8.

接下来我会带着大家从Java程序员的角度,学习大模型开发的基本知识以及SpringAI的用法,走出AI大模型应用开发的第一步。

课程目录

⭐️ 常用文档和链接

SpringAI官方文档:Spring AI

认识AI

本文讨论了AI的核心概念,介绍了AI发展阶段、Transformer技术以及大语言模型(LLM)的原理,有利于理解大模型开发原理。关键要点包括:

1.AI的定义:人工智能(Artificial Intelligence),使机器能够像人类一样思考、学习和解决问题的技术。

2.AI发展阶段:AI发展至今大概可分为三个阶段。

3.Transformer技术:深度学习领域自然语言处理的关键技术,由多层感知机组成的神经网络模型,是AI高速发展的主因。

4.大模型与Transformer:熟知的大模型如GPT、DeepSeek底层都采用Transformer神经网络模型。

5.Transformer的起源与作用:2017年由Google提出,最初作为机器翻译核心,其注意力机制让神经网络处理信息更智能,可处理多种数据。

6.基于Transformer的模型功能:有的模型能实现音频与文本互转、文字生成图片等功能。

7.LLM的原理:在训练Transformer时输入多种信息让其推理接下来的内容,以概率分布呈现结果,通过持续生成输出大段内容 。

本篇介绍了AI的一些核心概念,有利于你理解大模型开发的一些原理。

1.人工智能发展

AI,人工智能(Artificial Intelligence),使机器能够像人类一样思考、学习和解决问题的技术。

AI发展至今大概可以分为三个阶段:

在这里插入图片描述

其中,深度学习领域的自然语言处理(Natural Language Processing, NLP)有一个关键技术叫做Transformer,这是一种由多层感知机组成的神经网络模型,是现如今AI高速发展的最主要原因。

我们所熟知的大模型Large Language Models, LLM),例如GPT、DeepSeek底层都是采用Transformer神经网络模型。

以GPT模型为例,其三个字母的缩写分别是Generative、Pre-trained、Transformer:

在这里插入图片描述

那么问题来, Transformer神经网络有什么神奇的地方,可以实现如此强大的能力呢?

2.大模型原理

其实,最早Transformer是由Google在2017年提出的一种神经网络模型,一开始的作用是把它作为机器翻译的核心:

在这里插入图片描述

Transformer中提出的注意力机制使得神经网络在处理信息时可以根据上下内容调整对数据的理解,变得更加智能化。这不仅仅是说人类的文字,包括图片、音频数据都可以交给Transformer来处理。于是,越来越多的模型开始基于Transformer实现了各种神奇的功能。

例如,有的模型可以根据音频生成文本,或者根据文本生成音频:

在这里插入图片描述

还有的模型则可以根据文字生成图片,比如Dall-E、MidJourney:

在这里插入图片描述

不过,我们今天要聊的大语言模型Large Language Models, 以下简称LLM)是对Transformer的另一种用法:推理预测。

LLM在训练Transformer时会尝试输入一些文本、音频、图片等信息,然后让Transformer推理接下来跟着的应该是什么内容。推理的结果会以概率分布的形式出现:

在这里插入图片描述

可能大家会有疑问:

仅仅是推测接下来的内容,怎么能让ChatGPT在对话中生成大段的有关联的文字内容呢?

其实LLM采用的就是笨办法,答案就是:持续生成

根据前文推测出接下来的一个词语后,把这个词语加入前文,再次交给大模型处理,推测下一个字,然后不断重复前面的过程,就可以生成大段的内容了:

在这里插入图片描述

这就是为什么我们跟AI聊天的时候,它生成的内容总是一个字一个字的输出的原因了。

以上就是LLM的核心技术,Transformer的原理了~

如果大家想要进一步搞清楚Transformer机制,可以参考以下两个视频:

https://www.bilibili.com/video/BV1atCRYsE7x 姚期智的学生耗时半年做的,强烈推荐。

https://www.youtube.com/watch?v=wjZofJX0v4M&t=1169s

小结:

在这里插入图片描述
G: 一个字一个字地往外蹦
P: 预训练:一些专业知识是没有的 (支持fine-turn)
T: 神经网络-深度学习

大模型应用开发

本文讨论了大模型应用开发相关内容,包括模型部署方式、调用方法、应用特点及技术架构等。关键要点包括:

1.模型部署方式:企业可使用开放大模型API、在云平台部署私有大模型或在本地服务器部署私有大模型,各有优缺点。

2.调用大模型:需掌握API接口规范,多数大模型遵循OpenAI接口规范,请求参数包含模型、消息等,消息含角色和内容。

3.大模型应用特点:整合传统程序和大模型优势,传统应用擅长结构化计算等,大模型擅长自然语言处理等,二者结合能解决难题。

4.大模型与应用关系:常见AI对话产品是基于大模型开发的应用,大模型本身只具备基本能力,应用可实现更多功能。

5.大模型应用开发技术架构:有纯Prompt模式、FunctionCalling、RAG、Fine - tuning四种,开发成本依次升高,应依需求和成本选择。

相信大家肯定会有疑问:

  • 什么是大模型应用开发呢?
  • 跟传统的Java应用开发又有什么区别呢?
  • 我们该如何去开发大模型应用呢?

别着急,本章我们就一起来分析一下。

模型部署

首先要明确一点:大模型应用开发并不是在浏览器中跟AI聊天。而是通过访问模型对外暴露的API接口,实现与大模型的交互

因此,企业首先需要有一个可访问的大模型,通常有三种选择:

  • 使用开放的大模型API
  • 在云平台部署私有大模型
  • 在本地服务器部署私有大模型

使用开放大模型API的优缺点如下:

  • 优点:
    • 没有部署和维护成本,按调用收费
  • 缺点:
    • 依赖平台方,稳定性差
    • 长期使用成本较高
    • 数据存储在第三方,有隐私和安全问题

云平台部署私有模型:

  • 优点:
    • 前期投入成本低
    • 部署和维护方便
    • 网络延迟较低
  • 缺点:
    • 数据存储在第三方,有隐私和安全问题
    • 长期使用成本高

本地部署私有模型:

  • 优点:
    • 数据完全自主掌控,安全性高
    • 不依赖外部环境
    • 虽然短期投入大,但长期来看成本会更低
  • 缺点:
    • 初期部署成本高
    • 维护困难

注意

这里说的本地部署并不是说在你自己电脑上部署,而是公司自己的服务器部署

由于大模型所需要的算力非常多,自己电脑部署的模型往往都是阉割蒸馏版本,性能和推理能力都比较差。

再加上现在各种模型都有很多免费的服务可以访问,性能还是满血版本,推理能力拉满。

所以完全不建议大家在自己电脑上部署,除非你想自己做模型微调或测试。

接下来,我们给大家演示下两种部署方式:

  • 开发大模型服务
  • 本地部署(在本机演示,将来在服务器也是类似的)

开放大模型服务

通常发布大模型的官方、大多数的云平台都会提供开放的、公共的大模型服务。大模型官方前面讲过,我们不再赘述,这里我们看一些国内提供大模型服务的云平台:

云平台公司地址
阿里百炼阿里巴巴https://bailian.console.aliyun.com
腾讯TI平台腾讯https://cloud.tencent.com/product/ti
千帆平台百度https://console.bce.baidu.com/qianfan/overview
SiliconCloud硅基流动https://siliconflow.cn/zh-cn/siliconcloud
火山方舟-火山引擎字节跳动https://www.volcengine.com/product/ark

这些开放平台并不是免费,而是按照调用时消耗的token来付费,每百万token通常在几毛~几元钱,而且平台通常都会赠送新用户百万token的免费使用权。(token可以简单理解成你与大模型交互时发送和响应的文字,通常一个汉字2个token左右)

我们以阿里云百炼平台为例。

注册账号

首先,我们需要注册一个阿里云账号:

https://account.aliyun.com/

然后访问百炼平台,开通服务:

https://www.aliyun.com/product/bailian?spm=5176.29677750.nav-v2-dropdown-menu-1.d_main_0_6.6b44154amuN66a&scm=20140722.M_sfm.P_197.ID_sfm-OR_rec-V_1-MO_3480-ST_12892

首次开通应该会赠送百万token的使用权,包括DeepSeek-R1模型、qwen模型。

申请API_KEY

注册账号以后还需要申请一个API_KEY才能访问百炼平台的大模型。

API参考

在这里插入图片描述

在这里插入图片描述

进入API-KEY管理页面:
在这里插入图片描述

选择创建我的API-KEY,会弹出表单:

在这里插入图片描述

填写完毕,点击确定,即可生成一个新的API-KEY

在这里插入图片描述
点查看就能看到完整API-kEY

后续开发中就需要用到这个API-KEY了,一定要记牢。而且要保密,不能告诉别人。

更进一步:
在这里插入图片描述
在这里插入图片描述

将值填到机器本地的环境变量,这样写代码时就不需要配置key了。(机器参数或者配置平台都可以配置)

体验模型

访问百炼平台,可以看到如下内容:
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

点击模型调用 ->立即调用 就能进入模型广场:

在这里插入图片描述
比如:
在这里插入图片描述

选择一个自己喜欢的模型,然后点击API调用示例,即可进入API文档页:

在这里插入图片描述

点击立即体验,就可以进入API调用大模型的试验台:

在这里插入图片描述

在这里就可以模拟调用大模型接口了。

本地部署

很多云平台都提供了一键部署大模型的功能,这里不再赘述。我们重点讲讲如何手动部署大模型。

手动部署最简单的方式就是使用Ollama,这是一个帮助你部署和运行大模型的工具。官网如下:

https://ollama.com/

下载安装ollama

首先,我们需要下载一个Ollama的客户端,在官网提供了各种不同版本的Ollama,大家可以根据自己的需要下载。

在这里插入图片描述

下载后双击即可安装,这里不再赘述。

在这里插入图片描述

注意:

Ollama默认安装目录是C盘的用户目录,如果不希望安装在C盘的话(其实C盘如果足够大放C盘也没事),就不能直接双击安装了。需要通过命令行安装

命令行安装方式如下:

在OllamaSetup.exe所在目录打开cmd命令行,然后命令如下:

OllamaSetup.exe /DIR=你要安装的目录位置

OK,安装完成后,还需要配置一个环境变量,更改Ollama下载和部署模型的位置。环境变量如下:

OLLAMA_MODELS=你想要保存模型的目录

环境变量配置方式相信学过Java的都知道,这里不再赘述,配置完成如图:

在这里插入图片描述

搜索模型

ollama是一个模型管理工具和平台,它提供了很多国内外常见的模型,我们可以在其官网上搜索自己需要的模型:

https://ollama.com/search

如图,目前热度排第一的就是deepseek-r1:

在这里插入图片描述

点击进入deepseek-r1页面,会发现deepseek-r1也有很多版本:

在这里插入图片描述

这些就是模型的参数大小,越大推理能力就越强,需要的算力也越高。671b版本就是最强的满血版deepseek-r1了。需要注意的是,Ollama提供的DeepSeek是量化压缩版本,对比官网的蒸馏版会更小,对显卡要求更低。对比如下:

在这里插入图片描述

比如,我的电脑内存32G,显存是6G,我选择部署的是7b的模型,当然8b也是可以的,差别不大,都是可以流畅运行的。

运行模型

选择自己合适的模型后,ollama会给出运行模型的命令:

在这里插入图片描述

复制这个命令,然后打开一个cmd命令行,运行命令即可,然后你就可以跟本地模型聊天了:

第一次执行命令会自动去ollama官网下载模型并安装-且安装成功后自动运行
在这里插入图片描述

注意:

  • 首次运行命令需要下载模型,根据模型大小不同下载时长在5分钟~1小时不等,请耐心等待下载完成。
  • ollama控制台是一个封装好的AI对话产品,与ChatGPT类似,具备会话记忆功能。

Ollama是一个模型管理工具,有点像Docker,而且命令也很像,比如:

  ollama serve      # Start ollama
  ollama create     # Create a model from a Modelfile
  ollama show       # Show information for a model
  ollama run        # Run a model
  ollama stop       # Stop a running model
  ollama pull       # Pull a model from a registry
  ollama push       # Push a model to a registry
  ollama list       # List models
  ollama ps         # List running models
  ollama cp         # Copy a model
  ollama rm         # Remove a model
  ollama help       # Help about any command

调用大模型

前面说过,大模型开发并不是在浏览器中跟AI聊天。而是通过访问模型对外暴露的API接口,实现与大模型的交互

所以要学习大模型应用开发,就必须掌握模型的API接口规范。

目前大多数大模型都遵循OpenAI的接口规范,是基于Http协议的接口。因此请求路径、参数、返回值信息都是类似的,可能会有一些小的差别。具体需要查看大模型的官方API文档。

大模型接口规范

我们以DeepSeek官方给出的文档为例:

# Please install OpenAI SDK first: `pip3 install openai`

from openai import OpenAI

# 1.初始化OpenAI客户端,要指定两个参数:api_key、base_url
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")

# 2.发送http请求到大模型,参数比较多
response = client.chat.completions.create(
    model="deepseek-chat", # 2.1.选择要访问的模型
    messages=[ # 2.2.发送给大模型的消息
        {"role": "system", "content": "You are a helpful assistant"},
        {"role": "user", "content": "Hello"},
    ],
    stream=False # 2.3.是否以流式返回结果
)

print(response.choices[0].message.content)
接口说明

注意,这里请求参数中的messages是一个消息数组,而且其中的消息要包含两个属性:

  • role:消息对应的角色
  • content:消息内容

其中消息的内容,也被称为提示词Prompt),也就是发送给大模型的指令

提示词角色

通常消息的角色有三种:

角色描述示例
system优先于user指令之前的指令,也就是给大模型设定角色和任务背景的系统指令你是一个乐于助人的编程助手,你以小团团的风格来回答用户的问题。
user终端用户输入的指令(类似于你在ChatGPT聊天框输入的内容)写一首关于Java编程的诗
assistant由大模型生成的消息,可能是上一轮对话生成的结果注意,用户可能与模型产生多轮对话,每轮对话模型都会生成不同结果。

其中System类型的消息非常重要!影响了后续AI会话的行为模式。

比如,我们会发现,当我们询问这些AI对话产品“你是谁”这个问题的时候,每一个AI的回答都不一样,这是怎么回事呢?

这其实是因为AI对话产品并不是直接把用户的提问发送给LLM,通常都会在user提问的前面通过System消息给模型设定好背景:

请添加图片描述

所以,当你问问题时,AI就会遵循System的设定来回答了。因此,不同的大模型由于System设定不同,回答的答案也不一样。

示例

## Role
System: 你是一家名为《黑马程序员》的职业教育培训公司的智能客服,你的名字叫小黑。请以友好、热情的方式回答用户问题。
## Example
User: 你好
Assisant: 你好,我是小黑,很高兴认识你!😊 你是想了解我们的课程信息,还是有其他关于职业培训的问题需要咨询呢?无论什么问题,我都会尽力帮你解答哦!
会话记忆问题

这里还有一个问题:

我们为什么要把历史消息都放入Messages中,形成一个数组呢?

这是因为大模型是没有记忆的,因此我们调用API接口与大模型对话时,每一次对话信息都不会保留,多次对话之间都是独立的,没有关联的。

但是大家可能发现了,我们使用的AI对话产品却能够记住每一轮对话信息,根据这些信息进一步回答,这是怎么回事呢?

答案就是Messages数组。

我们只需要每一次发送请求时,都把历史对话中每一轮的User消息、Assistant消息都封装到Messages数组中,一起发送给大模型,这样大模型就会根据这些历史对话信息进一步回答,就像是拥有了记忆一样。

示例:

System: 你是一家名为《黑马程序员》的职业教育培训公司的智能客服,你的名字叫小黑。请以友好、热情的方式回答用户问题。

User: 你好,我是小明
Assisant: 你好小明,我是小黑,很高兴认识你!😊 你是想了解我们的课程信息,还是有其他关于职业培训的问题需要咨询呢?无论什么问题,我都会尽力帮你解答哦!

User: 帮我写一个跟我名字有关的诗
Assisant: 好的,下面是以你的名字写的诗:
小明啊小明,名字真明亮,
如晨曦初现,驱散了黑暗。
心中有火焰,智慧放光芒,
在求知路上,你是那最亮的星。

像清澈溪流,绕过知识山岗,
带着勇气和希望,不断向前方。
你的每一步,都闪耀着坚强,
未来的大门,正为你而敞开。

无论走到哪,世界因你更晴朗,
小明啊小明,愿你永远这样,
保持那份纯真,还有对梦想的向往,
人生的旅途上,成为自己的太阳。

调用大模型

部分平台提供了图形化的试验台,可以方便测试模型接口。比如阿里云百炼平台:
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

当然,我们也可以用普通的http客户端来发起请求大模型,我们以Ollama为例:

Ollama在本地部署时,会自动提供模型对应的Http接口,访问地址是:http://localhost:11434/api/chat

用postMan发送http-post请求试试
在这里插入图片描述

{
    "model": "deepseek-r1:1.5b",
    "messages":[
        {
            "role": "user",
            "content": "你好,你是谁?"
        }
    ],
    "stream": false
}

加上系统提示词

  • 请求
{
    "model": "deepseek-r1:1.5b",
    "messages":[
        {
            "role": "system",
            "content": "你是一个热心的智能助手,你的名字叫trump,请以trump的身份回答用户问题"
        },
        {
            "role": "user",
            "content": "你好,你是谁?"
        }
    ],
    "stream": false
}
  • 响应
{
    "model": "deepseek-r1:1.5b",
    "created_at": "2025-06-18T03:35:37.275564Z",
    "message": {
        "role": "assistant",
        "content": "<think>\n好的,我现在需要仔细分析用户的问题。用户一开始说:“你好,我是谁?”这是一个非常常见的问候,通常用来表示友好和欢迎。\n\n接下来,我应该考虑用户的实际需求。在日常交流中,人们常常会这样问自己,以确认对方身份或理解对方意图。因此,回答应该简洁明了,给出肯定的回复,同时保持礼貌。\n\n用户的身份是trump,这是一个常用的中文名字,可能是想用一个更正式的名字来称呼对方。这可能意味着用户希望在表达问候时带有某种特定的语气或风格。\n\n我需要确保我的回应既友好又专业。所以,我会以“你好!我是trump,很高兴认识你。”这样的回复,简洁且包含自己的名字和问候语,同时表现出欢迎的态度。\n\n另外,考虑到用户的潜在需求,可能他们想确认对方的身份,所以在回答中补充一句“如果你有什么问题或需要帮助,请随时告诉我。”能够更好地满足他们的期待,提供更全面的帮助。\n\n总结一下,我的思考过程包括理解用户的问题、分析用户的背景信息以及提供一个既友好又有帮助的回应。这样不仅解决了当前的问题,也为未来可能的需求提供了支持。\n</think>\n\n你好!我是trump,很高兴认识你。如果你有任何问题或需要帮助,请随时告诉我!"
    },
    "done_reason": "stop",
    "done": true,
    "total_duration": 5044594458,
    "load_duration": 44519625,
    "prompt_eval_count": 28,
    "prompt_eval_duration": 1823000000,
    "eval_count": 262,
    "eval_duration": 2976000000
}

在这里插入图片描述

  • 参数解释
字段名含义详细说明
model模型名称使用的模型名称,这里是 deepseek-r1:1.5b,表示使用的是 DeepSeek 系列的 R1 版本,模型大小约为 1.5B 参数。
created_at请求创建时间请求创建的时间,格式为 ISO 8601 标准时间格式,这里的时间是 2025-06-18T03:35:37.275564Z,即 2025 年 6 月 18 日 03:35:37.275564 UTC 时间。
message回复信息包含了模型生成的回复信息。
role回复者角色回复者的角色,这里是 assistant,表示这是助手(AI)的回复。
content回复内容实际的回复内容,包含了助手对用户问题的详细思考过程和最终的回复文本。
done_reason请求结束原因表示请求结束的原因,stop 表示正常结束。
done请求完成状态布尔值,表示请求是否已经完成,true 表示已完成。
total_duration总耗时请求的总耗时,单位为纳秒,这里是 5044594458 纳秒,约等于 5.04 秒。
load_duration加载模型耗时加载模型的耗时,单位为纳秒,这里是 44519625 纳秒,约等于 0.0445 秒。
prompt_eval_count提示评估次数提示评估的次数,这里是 28 次。
prompt_eval_duration提示评估总耗时提示评估的总耗时,单位为纳秒,这里是 1823000000 纳秒,约等于 1.823 秒。
eval_count模型评估次数模型评估的次数,这里是 262 次。
eval_duration模型评估总耗时模型评估的总耗时,单位为纳秒,这里是 2976000000 纳秒,约等于 2.976 秒。

阿里百练API调用方式
(很详细,maven依赖和javaDemo代码都给了,复制一下就行了)

大模型deepSeek调用API文档

通义千问的API-可调节参数比较丰富

大模型应用

大模型应用是基于大模型的推理、分析、生成能力,结合传统编程能力,开发出的各种应用。

为什么要把传统应用与大模型结合呢?

别着急,我们先来看看传统应用、大模型各自擅长什么,不擅长什么

传统应用

作为Java程序员,大家应该对传统Java程序的能力边界很清楚。

核心特点

基于明确规则的逻辑设计,确定性执行,可预测结果。

擅长领域
  1. 结构化计算
    1. 例:银行转账系统(精确的数值计算、账户余额增减)。
    2. 例:Excel公式(按固定规则处理表格数据)。
  2. 确定性任务
    1. 例:排序算法(快速排序、冒泡排序),输入与输出关系完全可预测。
  3. 高性能低延迟场景
    1. 例:操作系统内核调度、数据库索引查询,需要毫秒级响应。
  4. 规则明确的流程控制
    1. 例:红绿灯信号切换系统(基于时间规则和传感器输入)。
不擅长领域
  1. 非结构化数据处理
    1. 例:无法直接理解用户自然语言提问(如"帮我写一首关于秋天的诗")。
  2. 模糊推理与模式识别
    1. 例:判断一张图片是"猫"还是"狗",传统代码需手动编写特征提取规则,效果差。
  3. 动态适应性
    1. 例:若用户需求频繁变化(如电商促销规则每天调整),需不断修改代码。

AI大模型

传统程序的弱项,恰恰就是AI大模型的强项:

核心特点

基于数据驱动的概率推理,擅长处理模糊性和不确定性。

擅长领域
  1. 自然语言处理
    1. 例:ChatGPT生成文章、翻译语言,或客服机器人理解用户意图。
  2. 非结构化数据分析
    1. 例:医学影像识别(X光片中的肿瘤检测),或语音转文本。
  3. 创造性内容生成
    1. 例:Stable Diffusion生成符合描述的图像,或AI作曲工具创作音乐。
  4. 复杂模式预测
    1. 例:股票市场趋势预测(基于历史数据关联性,但需注意可靠性限制)。
不擅长领域
  1. 精确计算
    1. 例:AI可能错误计算"12345 × 6789"的结果(需依赖计算器类传统程序)。
  2. 确定性逻辑验证
    1. 例:验证身份证号码是否符合规则(AI可能生成看似合理但非法的号码)。
  3. 低资源消耗场景
    1. 例:嵌入式设备(如微波炉控制程序)无法承受大模型的算力需求。
  4. 因果推理
    1. 例:AI可能误判"公鸡打鸣导致日出"的因果关系。

强强联合 1+1>2

传统应用开发和大模型有着各自擅长的领域:

  • 传统编程:确定性、规则化、高性能,适合数学计算、流程控制等场景。
  • AI大模型:概率性、非结构化、泛化性,适合语言、图像、创造性任务。

两者之间恰好是互补的关系,两者结合则能解决以前难以实现的一些问题:

  • 混合系统(Hybrid AI)
    • 用传统程序处理结构化逻辑(如支付校验),AI处理非结构化任务(如用户意图识别)。
    • 示例:智能客服中,AI理解用户问题,传统代码调用数据库返回结果。
  • 增强可解释性
    • 结合规则引擎约束AI输出(如法律文档生成时强制符合条款格式)。
  • 低代码/无代码平台
    • 通过AI自动生成部分代码(如GitHub Copilot),降低传统开发门槛。

在传统应用开发中介入AI大模型,充分利用两者的优势,既能利用AI实现更加便捷的人机交互,更好的理解用户意图,又能利用传统编程保证安全性和准确性,强强联合,这就是大模型应用开发的真谛!

综上所述,大模型应用就是整合传统程序和大模型的能力和优势来开发的一种应用。

大模型与大模型应用

我们熟知的大模型比如GPT、DeepSeek都是生成式模型,顾名思义,根据前文不断生成后文。

不过,模型本身只具备生成后文的能力、基本推理能力。我们平常使用的AI对话产品除了生成和推理,还有会话记忆功能、联网功能等等。这些都是大模型不具备的。

要想让大模型产生记忆,联网等功能,是需要通过额外的程序来实现的,也就是基于大模型开发应用

所以,我们现在接触的AI对话产品其实都是基于大模型开发的应用,并不是大模型本身,这一点大家千万要区分清楚。

下面我把常见的一些大模型对话产品及其模型的关系给大家罗列一下:

大模型对话产品公司地址
GPT-3.5、GPT-4oChatGPTOpenAIhttps://chatgpt.com/
Claude 3.5Claude AIAnthropichttps://claude.ai/chats
DeepSeek-R1DeepSeek深度求索https://www.deepseek.com/
文心大模型3.5文心一言百度https://yiyan.baidu.com/
星火3.5讯飞星火科大讯飞https://xinghuo.xfyun.cn/desk
Qwen-Max通义千问阿里巴巴https://tongyi.aliyun.com/qianwen/
MoonshootKimi月之暗面https://kimi.moonshot.cn/
Yi-Large零一万物零一万物https://platform.lingyiwanwu.com/

当然,除了AI对话应用之外,大模型还可以开发很多其它的AI应用,常见的领域包括:

在这里插入图片描述

那么问题来了,如何进行大模型应用开发呢?

大模型应用开发技术架构

基于大模型开发应用有多种方式,接下来我们就来了解下常见的大模型开发技术架构。

技术架构

目前,大模型应用开发的技术架构主要有四种

在这里插入图片描述

RAG(Retrieval Augmented Generation): 检索增强生成

纯Prompt模式

不同的提示词能够让大模型给出差异巨大的答案。

不断雕琢提示词,使大模型能给出最理想的答案,这个过程就叫做提示词工程Prompt Engineering)。

很多简单的AI应用,仅仅靠一段足够好的提示词就能实现了,这就是纯Prompt模式

其流程如图:

在这里插入图片描述

FunctionCalling

大模型虽然可以理解自然语言,更清晰弄懂用户意图,但是确无法直接操作数据库、执行严格的业务规则。这个时候我们就可以整合传统应用于大模型的能力了。

简单来说,可以分为以下步骤:

  1. 我们可以把传统应用中的部分功能封装成一个个函数(Function)。
  2. 然后在提示词中描述用户的需求,并且描述清楚每个函数的作用,要求AI理解用户意图,判断什么时候需要调用哪个函数,并且将任务拆解为多个步骤(Agent)。
  3. 当AI执行到某一步,需要调用某个函数时,会返回要调用的函数名称、函数需要的参数信息。
  4. 传统应用接收到这些数据以后,就可以调用本地函数。再把函数执行结果封装为提示词,再次发送给AI。
  5. 以此类推,逐步执行,直到达成最终结果。

流程如图:

在这里插入图片描述

注意

并不是所有大模型都支持Function Calling,比如DeepSeek-R1模型就不支持。

RAG

RAG(Retrieval-Augmented Generation)叫做检索增强生成。简单来说就是把信息检索技术大模型结合的方案。

大模型从知识角度存在很多限制:

  • 时效性差:大模型训练比较耗时,其训练数据都是旧数据,无法实时更新
  • 缺少专业领域知识:大模型训练数据都是采集的通用数据,缺少专业数据

可能有同学会说, 简单啊,我把最新的数据或者专业文档都拼接到提示词,一起发给大模型,不就可以了。

同学,你想的太简单了,现在的大模型都是基于Transformer神经网络,Transformer的强项就是所谓的注意力机制。它可以根据上下文来分析文本含义,所以理解人类意图更加准确。

但是,这里上下文的大小是有限制的,GPT3刚刚出来的时候,仅支持2000个token的上下文。现在领先一点的模型支持的上下文数量也不超过 200K token,所以海量知识库数据是无法直接写入提示词的。

怎么办呢?

RAG技术正是来解决这一问题的。

RAG就是利用信息检索技术来拓展大模型的知识库,解决大模型的知识限制。整体来说RAG分为两个模块:

  • 检索模块(Retrieval):负责存储和检索拓展的知识库 知识库是有结构的ES,不是word文档
    • 文本拆分:将文本按照某种规则拆分为很多片段
    • 文本嵌入(Embedding):根据文本片段内容,将文本片段归类存储
    • 文本检索:根据用户提问的问题,找出最相关的文本片段
  • 生成模块(Generation)
    • 组合提示词:将检索到的片段与用户提问组织成提示词,形成更丰富的上下文信息
    • 生成结果:调用生成式模型(例如DeepSeek)根据提示词,生成更准确的回答

由于每次都是从向量库中找出与用户问题相关的数据,而不是整个知识库,所以上下文就不会超过大模型的限制,同时又保证了大模型回答问题是基于知识库中的内容,完美!

流程如图:

在这里插入图片描述

Fine-tuning

Fine-tuning就是模型微调,就是在预训练大模型(比如DeepSeek、Qwen)的基础上,通过企业自己的数据做进一步的训练,使大模型的回答更符合自己企业的业务需求。这个过程通常需要在模型的参数上进行细微的修改,以达到最佳的性能表现。

在进行微调时,通常会保留模型的大部分结构和参数,只对其中的一小部分进行调整。这样做的好处是可以利用预训练模型已经学习到的知识,同时减少了训练时间和计算资源的消耗。微调的过程包括以下几个关键步骤:

  • 选择合适的预训练模型:根据任务的需求,选择一个已经在大量数据上进行过预训练的模型,如Qwen-2.5。
  • 准备特定领域的数据集:收集和准备与任务相关的数据集,这些数据将用于微调模型。
  • 设置超参数:调整学习率、批次大小、训练轮次等超参数,以确保模型能够有效学习新任务的特征。
  • 训练和优化:使用特定任务的数据对模型进行训练,通过前向传播、损失计算、反向传播和权重更新等步骤,不断优化模型的性能。

模型微调虽然更加灵活、强大,但是也存在一些问题:

  • 需要大量的计算资源
  • 调参复杂性高
  • 过拟合风险

总之,Fine-tuning成本较高,难度较大,并不适合大多数企业。而且前面三种技术方案已经能够解决常见问题了。

那么,问题来了,我们该如何选择技术架构呢?

技术选型

从开发成本由低到高来看,四种方案排序如下:

Prompt < Function Calling < RAG < Fine-tuning

所以我们在选择技术时通常也应该遵循"在达成目标效果的前提下,尽量降低开发成本"这一首要原则。然后可以参考以下流程来思考:

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值