大语言模型LLM底层技术原理到底是什么?大型语言模型如何工作?,看这一篇就够了!

1、什么是大型语言模型?

大型语言模型,也称为 预训练模型 ,是一种 使用大量数据来学习语言特征 的人工智能。这些模型用于生成基于语言的数据集,并可用于各种任务,例如语言理解和生成。

img

大型语言模型的关键特征之一是它们能够生成类似人类的文本。这些模型可以生成连贯、语法正确,有时甚至幽默的文本。

他们还可以将文本从一种语言翻译成另一种语言,并根据给定的上下文回答问题。

2、大型语言模型如何工作?

Step1: 将单词转换为向量

语言的基本单位主要是单词 ,因此,大语言模型(LLM)工作的第一步,就是将 单词 转换为 数字组合。

例如:

img

为什么要将单词转换为数字组合?因为这样就可以进行后续的电脑运算。

例如,“Cat(猫)”与“Dog(狗)”的数字组合,相比“Cat(猫)”与“Computer(电脑)”的数字组合在数学上更为接近。

因为在日常语言中,Cat与Dog相邻出现的几率更高。再例如,“King(国王)”-“Man(男人)”+“Woman(女人)”=“Queen(女王)

这一步,在LLM的术语里,叫做"Word Vector"(词向量)以及“Token”(词元),就是将语言的基本单位(单词,标点,数字,等)转换为数字组合。

img

Step2: 解析句子,预测下一个单词

大语言模型里设置了一层一层的规则,一步一步地,从不同角度理解与分析句子,在此基础上,试图预测下一个将要出现的单词。

这就像是家用的多级净水器,第一级用棉纱来过滤泥沙,第二级用活性炭来吸附杂质和异味,第三级用反渗透膜过滤掉有害物质,等等,最后得到净水。

同样地,LLM里也设置了多层或多级的语言规则理解器。比如:

第一层规则,致力于 理解句子中每个单词和短语的含义。

例如,如果看到单词“雨”,就知道它与天气有关。

第二层规则,致力于 理解句子中每个单词是怎样关联的 。

例如,如果看到句子以“乌云密布”开头,则预测下个单词很可能是“雨”,因为乌云通常意味着雨。

img

第三层规则,致力于 回忆前面句子中的内容,用来理解下个句子。

例如,如果看到之前的句子提到“乌云”和“雨伞”,根据上句的这些线索,预测下句很可能出现“雨“这个单词。

这一步,在LLM的术语里,叫做“Transformer”(转换器),这也是ChatGPT最后一个字母T的含义。

(ChatGPT的英文全称为 Chat Generative Pre-trained Transformer)GPT-3(第三代GPT)中,包含了96层的Transformer,参数总量高达1750亿个!

Step3: 使用大数据训练模型,提高语言的准确度

使大语言模型(LLM)接触到大量来自互联网的文本,通过阅读和分析这些文本,LLM可以识别单词和句子的使用方式,它们的含义,以及它们之间的关系,从而不断提高语言的准确度。

这就像训练一只狗。当类似场景重复出现,狗就会建立联系,想想巴甫洛夫的条件反射实验,只要摇铃,狗就会淌口水。

img

狗的动作正确,就会得到奖励;动作错误,就会被纠正。同样地,重复出现的语言模式,LLM就会记住。

预测正确,LLM会得到正反馈;预测错误,LLM则收到负反馈。

LLM通过调整其内部设置来学习(想想它有多达1750亿个参数可以调节),这有点像狗的大脑变得更善于理解命令。

它学会了预测在特定情境下接下来应该出现哪些单词。

例如,当它看到“The sunisshining,”时,它学会了“shining”后面可能会跟着“brightly”或“today”。

“量变引起质变”,这句话用在LLM的训练上,相当贴切。当我们惊艳于ChatGPT的出色表现时,不要忽视了它所经历的训练量。

GPT-3是在大约5000亿个单词的语料库上进行训练的。相比之下,一个典型的人类儿童到10岁时,大约会接触到1亿个单词左右。

img

3、相关技术知识

3.1 词向量

要了解语言模型的工作原理,首先需要了解它们如何表示单词。人类用字母序列来表示英文单词,比如C-A-T表示猫。

语言模型使用的是一个叫做 词向量的长串数字列表。例如,这是一种将猫表示为向量的方式:

img

语言模型采用类似的方法: 每个词向量代表了“词空间(word space)”中的一个点,具有相似含义的词的位置会更接近彼此。

例如,在向量空间中与猫最接近的词包括狗、小猫和宠物。

用 实数向量表示单词(相对于“C-A-T”这样的字母串)的一个主要优点是,数字能够进行字母无法进行的运算。

img

3.2 词的意义取决于上下文

像这样简单的词向量方案并没有捕获到自然语言的一个重要事实: 词通常有多重含义。例如:

img

这些句子中,“magazine”的含义相关但又有不同。约翰拿起的是一本实体杂志,而苏珊为一家出版实体杂志的机构工作。

传统软件的设计被用于处理明确的数据。如果你让计算机计算“2+3”,关于2、+或3的含义不存在歧义问题。但自然语言中的歧义远不止 同音异义词 和 多义词:

在“the customer asked the mechanic to fixhis car(顾客请修理工修理他的车)”中,“his”是指顾客还是修理工?

词向量为语言模型提供了一种灵活的方式,以在特定段落的上下文中表示每个词的准确含义。

img

3.3 将词向量转化为词预测

ChatGPT原始版本背后的GPT-3模型,由数十个神经网络层(transformer)组成。

每一层接受一系列向量作为输入(输入文本中的每个词对应一个向量),并添加信息以帮助澄清该词的含义,并且更好地预测接下来可能出现的词。

img

4、 Transformer

LLM的每个层都是一个 Transformer,2017年,Google在一篇里程碑的论文中首次介绍了这一神经网络结构。

Transformer模型架构如下:

img

研究表明,前几层专注于理解句子的语法并解决上面所示的歧义。

后面的层(为保持图表大小的可控性上述图标没有显示)则致力于对整个段落的高层次理解。

例如:

当LLM“阅读”一篇短篇小说时,它似乎会记住关于故事角色的各种信息:性别和年龄、与其他角色的关系、过去和当前的位置、个性和目标等等。

研究人员并不完全了解LLM是如何跟踪这些信息的,但从逻辑上讲,模型在各层之间传递时信息时必须通过修改隐藏状态向量来实现。

现代LLM中的向量维度极为庞大,这有利于表达更丰富的语义信息。

img

4.1 输入词向量化

例如:

GPT-3最强大的版本使用有12288个维度的词向量,也就是说,每个词由一个包含12288个的数字列表表示。

这比Google在2013年提出的word2vec方案要大20倍。你可以把所有这些额外的维度看作是GPT-3可以用来记录每个词的上下文的一种“暂存空间(scratchspace)”。

较早层所做的信息笔记可以被后来的层读取和修改,使模型逐渐加深对整文章的理解。

因此,假设我们将上面的图表改为,描述一个96层的语言模型来解读一个1000字的故事。

第60层可能包括一个用于约翰(John)的向量,带有一个表示为“(主角,男性,嫁给谢丽尔,唐纳德的表弟,来自明尼苏达州,目前在博伊西,试图找到他丢失的钱包)”的括号注释。

同样,所有这些事实(可能还有更多)都会以一个包含12288个数字列表的形式编码,这些数字对应于词John。

img

或者,该故事中的某些信息可能会编码在12288维的向量中,用于谢丽尔、唐纳德、博伊西、钱包或其他词。

这样做的目标是,让网络的第96层和最后一层输出一个包含所有必要信息的隐藏状态,以预测下一个单词。

现在让我们谈谈每个Transformer内部发生的情况。Transformer在更新输入段落的每个单词的隐藏状态时有两个处理过程:

a.在注意力步骤中,词汇会“观察周围”以查找具有相关背景并彼此共享信息的其他词。

b.在前馈步骤中,每个词会“思考”之前注意力步骤中收集到的信息,并尝试预测下一个单词。

img

4.2 注意力机制

你可以将 注意力机制 看作是单词之间的一个撮合服务。每个单词都会制作一个检查表(称为 查询向量,q),描述它寻找的词的特征。

每个词还会制作一个检查表(称为 关键向量,k),描述它自己的特征。 神经网络通过将每个关键向量与每个查询向量进行比较(通过计算点积)来找到最佳匹配的单词。

一旦找到匹配项,它将从产生关键向量的单词传递相关信息到产生查询向量的单词。例如:

在前面的部分中,我们展示了一个假设的 Transformer模型,它发现在部分句子“John wantshis bank to cash the”中,“his(他的)”指的是“John(约翰)”。

在系统内部,过程可能是这样的:“his”的 查询向量 可能会有效地表示为“我正在寻找:描述男性的名词”。

img

“John”的 关键向量 可能会有效地表示为“我是一个描述男性的名词”。网络会检测到这两个 向量匹配 ,并将关于"John“的向量信息转移给“his”的向量。

每个注意力层都有几个“注意力头”,这意味着,这个信息交换过程在每一层上会多次进行(并行)。每个注意头都专注于不同的任务:

··一个注意头可能会将代词与名词进行匹配,就像我们之前讨论的那样。

··另一个注意头可能会处理解析类似"bank"这样的一词多义的含义。

··第三个注意力头可能会将“Joe Biden”这样的两个单词短语链接在一起。

img

诸如此类的注意力头经常按顺序操作,一个注意力层中的注意力操作结果成为下一层中一个注意力头的输入。

事实上,我们刚才列举的每个任务可能都需要多个注意力头,而不仅仅是一个。

GPT-3的最大版本有96个层(transformer),每个层有96个注意力头(每个transformer有96个self-attention堆叠)

因此,每次预测一个新词时,GPT-3将执行9216个注意力操作。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值