
AI大模型
文章平均质量分 82
爱吃面的猫
1
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Python+langchain+通义千问qwen(大模型实现自己的聊天机器人)
langchain是一个用于开发由语言模型驱动的应用程序的框架,致力于简化AI模型应用的开发。简单来说,langchain就是一个(帮助开发者轻松完成AI模型应用开发的)框架,现在支持python和js两个版本,它集成多种大语言模型及第三方API。是调节文本多样性的,让回答更加丰富,为0时就会更加准确,大于0回答的就会带有llm的思维回答(可能会胡编乱造)就是回答内容了,回答的一个字典包含了question和text。搜索灵积模型服务,开通服务,点击立即开通。进入产品控制台,创建api-key。原创 2025-01-23 14:16:06 · 701 阅读 · 0 评论 -
Langchain+讯飞星火大模型Spark Max调用
Websocket服务接口认证信息。点击右上角控制台,创建新应用。原创 2025-01-23 17:00:20 · 1167 阅读 · 0 评论 -
Langchain+文心一言调用
在“我的应用”中查看申请的应用,找到"APPID","APISecret","APIKey"调用模型api,使用tokens。选择自己想要的应用,获取key。文新一言的key值申请。原创 2025-01-23 22:30:25 · 1337 阅读 · 0 评论 -
AutoGen实战应用
1.什么是Agent?2.Agent和大模型的关系1.大模型本质就是一个很大的深度学习模型(理解数据特征)模型只具备感知层能力,无逻辑判断能力大模型数据非常大,文本过大,训练出现交叠,出现幻觉用户提问包含较复杂的逻辑时候,大模型无法给到满意答复,因为无法判断。在大模型架构中接入Agent来进行判断,来解决幻觉问题。用户提出需求后,交给中间的代理 Agent,Agent分解用户需求,指定需求分解后新的标准,原创 2025-02-10 22:50:44 · 850 阅读 · 0 评论 -
Win+安装Ollama+本地Deepseek-R1+Cherrystudio使用
本文主要介绍 win 本地安装 Ollama ,本地部署 Ollama 的 deepseek-r1:7b 大模型,使用具有界面画操作的工具 Cherrystudio进行操作。文章内容仅供参考。 Ollama 是一个开源的框架,旨在本地运行大型语言模型(LLM)。它提供了一个简洁且用户友好的命令行界面,使得用户可以轻松部署和管理各种开源的大型语言模型。原创 2025-02-07 22:03:53 · 5933 阅读 · 0 评论