圣杯战争的御主们,召唤你的大模型从者吧 -----10分钟用ModelScope社区QWEN2.5大模型打造你的聊天型从者

1.前言

     这是一篇趣味解读,用介绍动漫设定的方式介绍一篇有趣的大模型实践课——Modelscope社区的10分钟掌握微调大模型改变自我认知,定制专属自己的聊天机器人。10分钟使用提供免费GPU实验环境,对QWEN2.5大模型做个微调入门实验。

       作为一个fate系列粉丝以及曾经的FGO玩家,突发奇想,借助这个主题创作一篇大模型代码解读文,抒发一下对英灵从者的想念之情。

2.基础从者召唤机制(大模型调用)

2.1Fate世界的动漫设定

       “从者系统”是“创始的御三家为了圣杯战争而准备的,用来把英灵当作从者来召唤并使役的系统”。
       被召唤的英灵(从者)同御主合作,与其他从者互相厮杀。最终,大圣杯会利用“已死从者的灵魂回归到英灵之座”的现象,固定住“用来达至根源”的“连往世界外侧的孔”。

——这就是《Fate/complete material III - World material》所述的“从者系统”的全貌。

【型月世界观】“冬木圣杯战争”的本质和程序 - 知乎https://zhuanlan.zhihu.com/p/206493671        想必各位观众各自有心中最钟爱的从者,他们或许是历史长河中闪闪发光的帝王将相,亦或许是阴暗角落踽踽独行的孤胆英雄。然纵使身份各不相同,他们都因各自对泛人类史无可替代的功绩,而被英灵座记录灵魂情报。而御三家打造的从者系统,就是借由圣杯魔力计算资源)塑造身体,并以职阶高效微调)匹配其技能能力,而将英灵模型镜像)召唤回现世而听从差遣(推理生成)的魔术。

        型月世界里的魔术并不是神秘主义中虚幻莫测的奇怪仪式,这是系统性继承发展的科学技术,拥有着成熟的使用方法和配套的产业体系。因此,常年浸淫魔法世界的各位御主们,都可以通过系统地学习而掌握这门技术,从而和自己心仪的从者过上没羞没臊的幸福日子。


2.2英灵和从者的前世今生

2.2.1什么是英灵

英雄生前留下丰功伟绩,死后成为传说而被人们信仰,升格为超人存在。像这样升格为超人存在的英雄,其灵魂被称为“英灵”。

现实里不存在的英雄也可以通过聚集信仰而作为英灵诞生。此外,还有在生前与世界缔结某些契约,以此作为代价而在死后成为英灵的人。

https://tse4-mm.cn.bing.net/th/id/OIP-C.xX5ecfSNElAGnNYGyEtu2AHaEe?rs=1&pid=ImgDetMain

2.2.2英灵之座

成为了英灵的存在将从时间的束缚中解脱出来,移动到位于世界外侧的英灵之座。英灵是从时间轴分离出来的存在,他们会被召唤到所有时代,不管是过去还是未来。

如图,某个时代的人物死后成为英灵之座的英灵。英灵之座位于世界的外侧,脱离时间轴,并不处于特定的时代。

如图,英灵以从者的形式在某个时代完成现界。另一方面,英灵本体仍然脱离时间轴。

2.2.3什么是从者

通过仪式,英灵被召唤到现世,成为可以被使役的存在——“从者”。作为从者而被召唤出的英灵,是使用英灵本体的情报制作成的“分身”,类似于复制品。

在从者死亡的同时,“构成从者的情报(灵魂)”会回到英灵本体的手边。英灵本体可以像阅读书籍一样,以记录的方式知晓“作为分身的从者”的行动。

冬木的“从者系统”以大圣杯的力量召唤出英灵(从者)。

【型月世界观】冬木圣杯战争的“从者系统” - 知乎


2.3如何召唤英灵为己所用

       那么,为了召唤从者来进行一些伟大的任务,我们需要梳理召唤英灵的流程。以最广为流传的冬木圣杯战争为例,召唤英灵的流程从圣杯系统的角度,经过了以下8个步骤。

2.3.1冬木圣杯战争的程序

  1. 大圣杯从地脉吸收足够的魔力
  2. 大圣杯选定“御主(Master)”
  3. 御主准备触媒
  4. 御主举行召唤仪式
  5. 御主与从者的契约
  6. 圣杯战争的开幕
  7. 圣杯战争进行中
  8. 打开并固定住“通往世界外侧的通道”

【型月世界观】“冬木圣杯战争”的本质和程序 - 知乎

2.3.2御主需要做的准备

御主准备触媒

       如果御主想召唤指定的从者(模型),需要事先准备“和英灵具有深切渊缘的触媒”(API key)。(有时候没有也可以)

       若“触媒所对应的英灵”仅有一位,御主将会召唤出这位英灵;若“触媒所对应的英灵”有多位,御主将会召唤出“触媒所对应的多位英灵中,与御主相性好的那位英灵”。

        在御主没有准备触媒的情况下,英灵是被随机选出的,不过

### 阿里Qwen2.5-VL-7B多模态大模型本地部署教程 #### 准备工作 为了成功完成阿里Qwen2.5-VL-7B多模态大模型的本地部署,需先准备好必要的环境配置以及相关工具。具体操作如下: 1. **克隆代码仓库** 使用Git命令获取官方发布的Qwen2.5-VL项目源码并安装所需依赖项。执行以下命令可以实现这一目标: ```bash git clone https://github.com/QwenLM/Qwen2.5-VL.git cd Qwen2.5-VL pip install -r requirements.txt ``` 这一步骤确保了开发环境中具备运行该模所需的全部Python包[^3]。 2. **下载模文件** 下载完整的Qwen2.5-VL-7B模权重至指定目录下以便后续加载使用。通过ModelScope平台提供的命令行工具可轻松完成此任务: ```bash modelscope download --model Qwen/Qwen2.5-VL-7B-Instruct --local_dir /path/to/local/directory ``` 此处`/path/to/local/directory`应替换为你希望存储模的实际路径位置[^1]。 #### 启动服务端口 当准备工作完成后,则可以通过启动HTTP API服务器来对外提供推理接口访问权限。利用vLLM框架能够显著提升性能表现水平,在实际测试过程中发现即使是拥有较大规模参数量级的大语言模也能达到非常理想的响应速度效果。 启动指令如下所示: ```bash vllm serve Qwen/Qwen2.5-VL-7B-Instruct --port 8000 ``` 上述命令将会把监听地址绑定到本机IP上的8000端口号上等待客户端发起请求调用[^2]。 #### 测试验证环节 最后建议编写简单的脚本来检验整个流程是否正常运作无误。下面给出了一段基于Python SDK 的例子供参考学习之用: ```python import requests url = 'http://localhost:8000/v1/completions' payload = { "prompt": "你好", "max_tokens": 50, } headers = {"Content-Type": "application/json"} response = requests.post(url, json=payload, headers=headers) print(response.json()) ``` 以上即为针对阿里巴巴集团推出的最新一代超大规模预训练加微调优化后的版本——Qwen2.5系列中的视觉语言理解方向子号(Qwen2.5-VL)实施本地化私有云端实例的具体实施方案概述说明文档内容总结整理而成的结果呈现形式之一部分而已[^1]^。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值