收藏

LLM应用全流程开发 全新技术+多案例实战+私有化部署

从构建到私有化部署全流程实战,覆盖提示词×MoE×RAG×Agent×MCP调用×私有化部署×工具链集成×轻量微调的原理

LLM应用全流程开发 全新技术+多案例实战+私有化部署

上新特惠
¥599
原价¥699.00
未完结 每周更新 难度 初级 时长 30小时 学习人数 115 综合评分 10.00
  • 第1章 【扬帆启程】深度求索:课程导学与AI基础 试看 3 节 | 20分钟

    从零开始,全面掌握AI时代的基础知识与入门技能,明确学习路线与环境搭建攻略,快速理解DeepSeek为何受企业青睐,助你少走弯路,直达AI实战

    收起列表

    • 视频: 1-1 课程导学与安排【全面了解课程】 (19:49) 试看
    • 图文: 1-2 大模型学习避坑指南:AI术语、多模态等
    • 图文: 1-3 学习路线:没有Python项目经验怎么学习?
  • 第2章 【行业概览】 LLM时代背景与应用价值,搜索+生成的时代 7 节 | 96分钟

    带你透彻理解大语言模型(LLM)的定义、应用价值与真实落地场景,深入对比传统NLP与GPT系列发展历程,掌握最新行业案例与发展局限,明确AI应用方向

    收起列表

    • 视频: 2-1 什么是大语言模型? (11:04)
    • 视频: 2-2 大模型的应用?如何用好?找准方向 (12:53)
    • 视频: 2-3 GPT系列与模型演进 (16:59)
    • 视频: 2-4 LLM与传统NLP对比 (14:10)
    • 视频: 2-5 大规模语料与训练挑战 (12:35)
    • 视频: 2-6 [更新]大模型行业应用案例(MCP、Manus、Sora、v0) (17:43) 试看
    • 视频: 2-7 大模型现存局限 (10:07)
  • 第3章 【初识DeepSeek】 多模态与MoE核心特性 5 节 | 60分钟

    深入认识DeepSeek模型的多模态能力与MoE架构核心优势,解读训练数据、开源协议、生态工具与应用扩展,帮你快速判断模型适用场景与落地方案

    收起列表

    • 视频: 3-1 DeepSeek发展历程&模型核心特点 (16:10)
    • 视频: 3-2 模型架构:MoE等核心要点 (11:52)
    • 视频: 3-3 [资源推荐]大模型训练数据集与训练策略- (11:24)
    • 视频: 3-4 与其他开源模型的比较(重视开源协议&商用授权) (11:07)
    • 视频: 3-5 [资源推荐]Deepseek版本+扩展应用+生态介绍 (09:01)
  • 第4章 【通用提示词能力】大模型“基石”,从聊天到精准AI交互 7 节 | 97分钟

    详细掌握如何设计高效提示词,从基础场景如翻译、摘要,到进阶应用如代码生成、逻辑推理,一步步提升AI输出精准度,告别AI交互中的反复试错

    收起列表

    • 视频: 4-1 为什么要设计提示词:AI输出准确性 (19:01)
    • 视频: 4-2 常见场景示例:翻译、摘要、润色 - (19:31)
    • 视频: 4-3 创意场景示例:文案营销、角色扮演 - (15:06)
    • 视频: 4-4 进阶场景示例:代码生成、逻辑推理 (12:21)
    • 视频: 4-5 问题调试:如何改进不理想的输出 (11:06)
    • 视频: 4-6 组合提示词:从简短到复杂的演练 (14:33)
    • 视频: 4-7 [资源]提示词万词聚合网站 (04:34)
  • 第5章 【进阶应用】界面化工作流整合:让DeepSeek融入业务 5 节 | 63分钟

    掌握AI工作流核心理念,快速上手Dify+Ollama本地部署,通过真实场景案例,学会如何将DeepSeek模型快速接入企业业务,实现流程自动化与效率提升

    收起列表

    • 视频: 5-1 AI工作流概念:自动化与协同 (11:05)
    • 视频: 5-2 国内外常见工作流工具概览(Coze&Dify&Zapier) (11:48)
    • 视频: 5-3 Dify+Ollama本地部署实战(Docker部署) (13:42)
    • 视频: 5-4 工作流示例(一):Dify+Deepseek实现网文摘要工作流 (11:49)
    • 视频: 5-5 工作流示例(二):智能客服-调用知识库 (13:42)
  • 第6章 【企业级开发准备】 AI编程环境与常用开发工具LLM应用案例 11 节 | 120分钟

    全面梳理AI开发必备的编程环境和插件工具(Cursor、WindSurf等),通过自动编程、长文写作、RAG应用等多个企业级案例,手把手教你快速实现本地AI部署

    收起列表

    • 视频: 6-1 AI必备编辑器:Cursor&windsurf&trae (13:12)
    • 视频: 6-2 AI必备编程插件推荐Roo&Cline&WindSurf (13:53)
    • 视频: 6-3 在Cursor&AI插件中集成Deepseek大模型 (07:28)
    • 视频: 6-4 桌面端工具:LMStudio&GPT4all&Cherry&ChatWise (13:01)
    • 视频: 6-5 [重要]离线环境下,是否可以使用AI编程?Ollama配置揭秘 (14:08)
    • 视频: 6-6 案例1:如何自动编程?巧用Agents功能(工具案例) (13:29)
    • 视频: 6-7 Cursor账号白嫖方式&重置机器码脚本 (04:42)
    • 视频: 6-8 案例2:长文写作技巧(角色植入、背景植入、写作手法植入) (09:10)
    • 视频: 6-9 案例3:RAG初体验-长文档会话工具(智能助手) (05:57)
    • 视频: 6-10 案例4:使用CherryStudio+ollama配置本地知识库 (06:21)
    • 视频: 6-11 案例5:搭建智能助手:本地Dify知识库+Ollama本地模型 (18:38)
  • 第7章 【RAG根基】 深度学习与Transformer剖析 5 节 | 34分钟

    拆解 Transformer 核心机制,从 Token 概率、Embedding 向量到自注意力原理,结合可视化和微调实操,理解大模型如何真正“读懂语言”。

    收起列表

    • 视频: 7-1 Transformer 架构概览:原理演变与必备学习资源 (05:48)
    • 视频: 7-2 从 Token 看概率:大模型如何理解语言与传统 NLP 区别 (06:05)
    • 视频: 7-3 什么是 Embedding:文本到向量的转换原理 (05:03)
    • 视频: 7-4 Transformer 自注意力机制解析 (07:17)
    • 视频: 7-5 自注意力可视化、Embedding检索与微调生成 (09:20)
  • 第8章 【本地私有化】 DeepSeek部署与数据安全 9 节 | 98分钟

    深入实践大模型私有化部署,从服务器租用选型到Ollama本地安装,全面讲解vLLM、LMDeploy等高性能推理框架与数据安全策略,保障企业模型安全稳定运行

    收起列表

    • 视频: 8-1 [重要]模型硬件推荐与系统环境要求1111 (13:27)
    • 视频: 8-2 [生产级]流行的模型推理框架vLLM&LMDeploy&ktransformers (10:28)
    • 视频: 8-3 [扩展]大模型国产化:硬件GPU服务商选择 (07:01)
    • 视频: 8-4 GPU算力服务器租用方案(AutoDL&智星云&恒源云) (16:13)
    • 视频: 8-5 [AI脚本]Linux环境离线安装Ollama (14:27)
    • 视频: 8-6 [扩展]AutoDL外部数据上传方案(七牛云对接) (06:16)
    • 视频: 8-7 AutoDL+Ollama:大模型私有化部署实战(配合客户端演示) (07:19)
    • 视频: 8-8 Ollama 高阶实战:环境变量、模型路径与并发解析 (08:59)
    • 视频: 8-9 别让模型裸奔!教你给 Ollama 加上 Token 安全锁 (13:02)
  • 第9章 【API实践】DeepSeek推理与多场景接入 9 节 | 105分钟

    全面了解MCP下一代模型调用平台优势,实操构建自己的MCP服务并集成IDE环境,快速实现提示词到函数调用的完整开发链路,轻松扩展模型新能力

    收起列表

    • 视频: 9-1 AI开发环境准备:vscode插件+conda+pip国内加速源 (10:04)
    • 视频: 9-2 模型调用入门:接口、参数、费用全解锁 (12:46)
    • 视频: 9-3 多轮对话实战:用 Python 模拟 ChatGPT 式会话流程 (08:26)
    • 视频: 9-4 模型响应提速关键:搞懂流式输出与实时解析 (08:01)
    • 视频: 9-5 模型参数全掌握:温度、Top P、Token 配置与场景实战 (13:24)
    • 视频: 9-6 聊天机器人实战:多轮会话、上下文管理与流式输出实战 (22:38)
    • 视频: 9-7 [代码生成]RooCode实战:提示词驱动开发与调试实战 (10:06)
    • 视频: 9-8 模型函数调用原理(对比MCP) (11:10)
    • 视频: 9-9 复杂函数调用实战:AI 生成 + VS Code 调试全流程解析 (07:48)
  • 第10章 【爆火AI工具】MCP 能力开发与接入实战全流程(纯扩展的) 9 节 | 81分钟

    全面了解MCP下一代模型调用平台优势,实操构建自己的MCP服务并集成IDE环境,快速实现提示词到函数调用的完整开发链路,轻松扩展模型新能力

    收起列表

    • 视频: 10-1 理解 MCP:下一代模型能力调用平台与 Function Call 的对比实战 (11:02)
    • 视频: 10-2 MCP 安装与服务选择指南+环境配置- (12:41)
    • 视频: 10-3 常见问题:MCP加载失败如何解决? (09:49)
    • 视频: 10-4 常见问题:使用uv&pip来安装MCP服务 (04:56)
    • 视频: 10-5 高质量 MCP 服务推荐:去哪里找、怎么选、哪些值得用 (08:39)
    • 视频: 10-6 开发你的第一个 MCP 服务:协议理解、需求分析与入门实践 (07:46)
    • 视频: 10-7 MCP开发环境搭建:mcp-starter初始化与调试实操 (08:39)
    • 视频: 10-8 [AI协作开发]从提示词到可用 IP 查询接口的全流程实践 (11:38)
    • 视频: 10-9 集成与发布:让你的 MCP 服务在 IDE 和 AI 插件中可用 (04:56)
  • 第11章 【搜索整合】 RAG原理与本地搜索方案 6 节 | 73分钟

    深入理解搜索增强(RAG)技术如何赋能大模型,通过实操谷歌、百度等搜索接口,快速打造具备实时信息检索的智能聊天机器人,助你全面提升AI对话体验

    收起列表

    • 视频: 11-1 搜索增强入门:为什么大模型必须借助搜索?完整流程与原理解析 (10:36)
    • 视频: 11-2 搜索服务推荐:Google、Bing、SerpAPI、百度全解析 (07:49)
    • 视频: 11-3 实战 Google Custom Search:账号申请、API Key 管理与搜索接口开发 (14:05)
    • 视频: 11-4 实战百度千帆搜索:接口开发、价格对比与搜索模式解析 (13:00)
    • 视频: 11-5 搜索×工具×会话融合案例预览:构建智能聊天机器人的完整流程 (04:58)
    • 视频: 11-6 实战打造智能聊天机器人:融合搜索、工具调用与多轮对话 (21:44)
  • 第12章 【本地化搜索方案】开源库与数据整合 7 节 | 76分钟

    手把手教你构建本地搜索方案,详细实操网页爬取与搜索引擎搭建过程,快速实现无需联网、稳定可靠的本地数据检索能力,为企业私有化部署提供强大工具

    收起列表

    • 视频: 12-1 [章导学]本地搜索介绍:本地检索、爬虫采集、元搜索 (05:51)
    • 视频: 12-2 爬虫搜索演示:抓取百度&谷歌内容+解析搜索结果 (04:47)
    • 视频: 12-3 本地搜索实现:轻量级爬虫开发+核心代码逻辑讲解 (20:36)
    • 视频: 12-4 本地搜索调试:理解爬虫流程与搜索原理(扩展介绍crawl4ai) (09:25)
    • 视频: 12-5 [技术视野]元搜索与文档搜索引擎的对比 (06:08)
    • 视频: 12-6 [进阶]元搜索方案SearxNG:容器化部署与接口调试 (14:56)
    • 视频: 12-7 Elasticsearch本地化运行全流程实战 (14:15)
  • 第13章 【向量检索】解锁海量数据的高效检索之道 6 节 | 41分钟

    带你彻底理解向量检索的核心概念与实践路径,从嵌入模型选择到Chroma数据库实操部署,轻松应对企业大规模数据场景,实现精准高效的知识检索与查询

    收起列表

    • 视频: 13-1 [章导学]RAG 核心技术概览 (06:27)
    • 视频: 13-2 [基础]向量&向量空间概念解析 (05:19)
    • 视频: 13-3 嵌入模型选型指南:基于 MTEB 榜单与场景需求筛选 (05:34)
    • 视频: 13-4 从训练到检索:嵌入模型向量生成与相似度匹配原理 (09:51)
    • 视频: 13-5 向量数据库选型指南:功能对比与场景落地 (02:54)
    • 视频: 13-6 Chroma 实战:本地部署、数据写入与向量查询 (10:38)
  • 第14章 【编排实战】运用LangChain串联搜索与生成,打造智能工作流 6 节 | 54分钟

    详细介绍LangChain如何高效串联搜索、记忆与工具调用功能,实操Prompt设计、Agent构建与决策链路,快速打造智能、高效、灵活的自动化AI工作流

    收起列表

    • 视频: 14-1 LangChain入门全览:核心模块解析与环境准备 (12:58)
    • 视频: 14-2 大模型模块:基础对话与流式响应输出 (05:07)
    • 视频: 14-3 Prompt实践:构建结构化提示词并动态注入变量 (07:24)
    • 视频: 14-4 Memory实战:构建有上下文记忆的对话系统 (13:54)
    • 视频: 14-5 Tools:让模型拥有可调用的扩展能力 (05:54)
    • 视频: 14-6 Agent实践:结合Prompt与Tools实现复杂决策调用 (07:49)
  • 第15章 【RAG进阶】搜索与向量数据库的深度结合 6 节 | 64分钟

    深入RAG技术实操流程,从文档处理到精准向量检索,全面打通知识库构建与问答交互闭环,帮助你快速掌握企业级RAG应用开发全流程,增强模型准确性

    收起列表

    • 视频: 15-1 LangChain搜索工具实战:集成DuckDuckGo实现实时信息查询 (07:16)
    • 视频: 15-2 [AI赋能]Langchain本地搜索:SearxNG+Agent实战 (11:16)
    • 视频: 15-3 RAG数据工程起点:文档加载与结构化准备 (08:36)
    • 视频: 15-4 RAG 数据工程核心:文本切分 (07:16)
    • 视频: 15-5 RAG向量数据库实战:初始化+写入与查询全流程 (14:11)
    • 视频: 15-6 RAG全流程实战:从文档到问答的闭环实现 (15:04)
  • 第16章 【多Agent协同】企业级搜索分析的强化,更灵活的知识与决策 14 节 | 156分钟

    多Agent协同通过分工协作强化企业搜索分析,结合RAG融合多源信息与推理链,并行检索提升效率,实战演练搜索+分析场景,并解决死循环等常见问题,实现灵活决策。

    收起列表

    • 视频: 16-1 智能体Agents:开发案例&执行流程揭秘 (14:17)
    • 视频: 16-2 定制化agents:通过Prompt引导执行流程 (09:07)
    • 视频: 16-3 多Agent协作实战:打造智能待办机器人 (18:15)
    • 视频: 16-4 【进阶】案例演示:高仿ChatGPT深度研究 (07:33)
    • 视频: 16-5 【进阶】深入研究agent实现(搜索+分析+报告) (10:50)
    • 视频: 16-6 n8n工作流技术方案介绍+资源推荐 (08:39)
    • 视频: 16-7 n8n本地化docker部署+配置实战(镜像加速+激活许可) (10:24)
    • 视频: 16-8 技术学习方法论:AI辅助思考与实践反思 (10:52)
    • 视频: 16-9 n8n自动化实战:HackerNews收集、AI 处理与日报邮件发送 (16:46)
    • 视频: 16-10 智能日报流程优化(日期+邮件主题定制) (07:47)
    • 视频: 16-11 n8n子流程封装与测试:打造高复用自动化模块 (12:15)
    • 视频: 16-12 [进阶]LLM 自主工具路由:多 Agent 子流程智能调度实战 (13:43)
    • 视频: 16-13 [扩展]网页爬取方案:crawl4ai与社区节点解析 (09:43)
    • 视频: 16-14 [更新]MCP Stdio模式:配置 HackerNews MCP服务 (05:22)
  • 第17章 【可视化UI进阶】开源UI界面Open WebUI打造本地 AI 聊天系统 7 节 | 64分钟

    一步步教你利用Open WebUI搭配本地模型Ollama,轻松实现多Agent协同、知识库调用与联网搜索功能,快速构建交互友好、企业可用的本地AI聊天系统

    收起列表

    • 视频: 17-1 Open WebUI 安装与初体验:配合 Ollama 本地跑通模型 (10:21)
    • 视频: 17-2 OpenWebUI实现多Agent对话功能 (04:28)
    • 视频: 17-3 本地知识库实战:构建智能客服助手 (03:41)
    • 视频: 17-4 联网搜索配置:接入SearxNG&DuckDuckGo (05:29)
    • 视频: 17-5 OpenWebUI三类函数功能解析 (11:17)
    • 视频: 17-6 OpenWebUI容器化Docker部署+ Pipeline实战 (11:06)
    • 视频: 17-7 开源聊天前端概览:NextChatWeb 与 LobeChat 快速对比入门 (17:33)
  • 第18章 【生产部署】高性能推理与容器化思路 3 节 | 40分钟

    明确为什么普通工具无法满足生产环境需求,实操高性能推理框架vLLM与LMDeploy,深入理解量化技术与分布式部署策略,打造真正高效稳定的生产级AI服务

    收起列表

    • 视频: 18-1 为什么Ollama、LM Studio不适合生产场景 (18:03)
    • 视频: 18-2 高性能推理框架对比:vLLM、LMDeploy (11:09)
    • 视频: 18-3 分布式与量化:大模型高效推理的关键 (10:41)
  • 第19章 【定制简易界面】 开发测试用:Gradio/Streamlit打造交互体验 持续更新

    快速入门Gradio与Streamlit两大UI构建工具,通过实操案例学会快速生成交互页面,实现本地模型部署与流式交互,助你轻松完成AI界面开发与原型展示

  • 第20章 【接口并发】 API安全、限流与监控管理,如何效率+性能兼顾 持续更新

    从实际企业需求出发,全面讲解接口并发处理、安全限流与网关负载均衡技术,详细实操One API解决方案与全链路监控日志管理,轻松实现企业级高并发接口

  • 第21章 【微调与扩展】 让模型更贴近业务需求 持续更新

    深入解析微调的必要性及主流方法(LoRA、P-Tuning、Adapter)之间的区别,结合 Unsloth 在 Colab 上的轻量实战,再到 LlamaFactory 的可视化微调流程,手把手带你完成从理论到实操的闭环,让大模型更贴合具体业务需求,快速实现私有定制与性能优化。...

  • 第22章 【课程回响】AI生成式课程笔记 × 教学内容RAG化实践 持续更新

    本章通过课程视频转写与自动化笔记生成,构建出基于教学内容的本地RAG系统,实现课程知识的结构化总结与智能复用,探索AI在教学内容整理与问答系统中的实战应用。

每周更新直至完结

试看

全部试看小节



讲师

Brian Web前端工程师

拥有10年 互联网从业经验,一线大厂出身,精通全栈、全端开发,负责过多个领域的全栈项目开发。历经从副业到创业9年 打磨与积累,纵跨技术、直播、新媒体等多个行业领域,自创多种优化流程,热爱分享。丰富的实战 教学经验,帮助大家在技能 思维等多维度提升,真正的良师益友。

讲师其他课程

课程预览

检测到您还没有关注慕课网服务号,无法接收课程更新通知。请扫描二维码即可绑定
重新观看
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号

学习咨询

选课、学习遇到问题?

扫码添加指导老师 1V1 帮助你!

添加后老师会第一时间解决你的问题