
AI
文章平均质量分 83
编码浪子
一杯咖啡,一台电脑,一个bug都没有的代码,这真的很美!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
LangChain 使用指南与原理
LangChain 是一个用于构建和部署语言模型应用的框架,通过模块化设计和链式操作简化开发流程。它支持多种预训练模型,提供统一的数据处理、模型评估和部署接口。LangChain 的自动流水线机制和抽象接口使开发者能够快速构建高效的AI应用,从简单的文本分类到复杂的问答系统都能轻松实现。原创 2025-05-11 16:40:27 · 756 阅读 · 0 评论 -
MCP (Model Context Protocol) 技术分析
MCP(Model Context Protocol)是一种通过本地运行的MCP服务器扩展系统能力的模型上下文协议。MCP服务器通过标准输入输出(stdio)与系统进行基于JSON的请求-响应通信,提供动态资源和工具处理能力。其架构包括Server类、Transport层、资源和工具处理器等组件,支持静态和动态资源管理,以及工具的动态调用和参数验证。MCP服务器可应用于获取天气信息、执行数据分析等场景,并通过错误处理机制确保通信的可靠性。创建MCP服务器需初始化项目、定义处理逻辑、编译运行并配置设置文件。原创 2025-05-11 10:54:09 · 1188 阅读 · 0 评论 -
Transformer的linear和softmax
线性层:将解码器的高维输出简化为一个与词汇表大小相同的低维向量,每个位置上的值代表对应词汇的可能性得分。Softmax函数:将这些得分转换成概率值,使得我们可以明确知道每个词汇被选中的可能性。这样一来,模型不仅能确定最有可能的下一个词,还能理解其他候选词的选择概率,从而更加灵活和智能地生成文本。原创 2025-01-21 10:30:31 · 1166 阅读 · 0 评论 -
Transformer解码器工作流程
通过上述步骤,Transformer的解码器有效地利用编码器提供的信息来生成新的句子。词汇嵌入与位置编码:将每个单词转换为包含其意义和位置的向量。掩码多头自注意力机制:处理目标序列,确保模型不会提前看到未来的词。编码器-解码器注意力:结合编码器的记忆,理解源序列的信息。前馈神经网络:对信息进行进一步的数学处理,捕捉更复杂的模式。残差连接与层归一化:确保信息顺利流动,并保持稳定性和一致性。堆叠多个解码器层:逐步提炼出更高级别的特征表示,最终生成目标句子。原创 2025-01-21 10:12:17 · 1023 阅读 · 0 评论 -
Transformer中的分词embedding和位置编码embedding
分词嵌入是指将文本中的每个词汇转换为一个固定维度的向量表示。这个过程通过查找表(lookup table)完成,其中每个词汇对应于一个唯一的向量。这些向量通常是在训练过程中学习到的,因此能够捕捉词汇之间的语义关系。由于Transformer模型没有内置的顺序信息处理机制(如RNN中的时间步),位置编码用于为输入序列添加位置信息。位置编码使得模型能够理解词汇的相对或绝对位置,从而有助于处理序列任务。分词嵌入:将文本中的每个词汇转换为固定维度的向量表示,捕捉词汇的语义信息。位置编码。原创 2025-01-21 09:04:00 · 1070 阅读 · 0 评论 -
进军AI大模型-Langchain程序部署
把ai部署后,使用api的方式调用原创 2025-01-03 07:19:28 · 510 阅读 · 0 评论 -
进军AI大模型-整合开发流程
如果只是简单的大语言模型,这几步确实够用了,但是想要把大语言模型做的优秀,还需要agent、rag等组件的支撑原创 2024-12-31 16:07:43 · 382 阅读 · 0 评论 -
进军AI大模型-环境配置
合法上网工具:这个T子试试,一直稳定。走我链接免费用5天:python版本: python3.12Langchain:v0.3 9月16日升级的版本pip3 设置成阿里云的源镜像(能够快速下载依赖包)langchain安装检查是否安装成功。原创 2024-12-28 21:46:28 · 707 阅读 · 0 评论