langchain从入门到精通(十)——ChatMessageHistory 组件

1. BaseChatMessageHistory

把 记忆功能 集成到 LLM 应用中,会设计到两个核心问题:存储的历史信息是什么?如何检索与处理历史信息?
在这里插入图片描述
图上可以划分成两部分,黄色 的部分为检索历史信息,红色的部分为存储历史信息的逻辑,可以看到,一个记忆类是由 历史消息的存储 与 记忆的处理逻辑 两个部分组成的,在 LangChain 中,也是类似的思路。
LangChain 封装了一个管理历史信息的基类——BaseChatMessageHistory
这是一个抽象类。用于管理历史消息,涵盖了对消息的多种管理:添加消息、清空历史消息、查看历史消息列表、查看历史消息文本等。

BaseChatMessageHistory 是所有聊天历史实现的基类,定义了聊天历史应支持的基本操作,比如:

  • 添加消息(用户消息、AI 消息)
  • 获取消息历史
  • 清除历史记录
    并且所有扩展的消息历史组件均继承 BaseChatMessageHistory(包括自定义消息历史组件)。BaseChatMessageHistory 及子类如下,其中 InMemoryChatMessageHistory 是 langchain_core 包中内置对话消息历史类,可以将对话消息存储到临时内存中,而其他第三方集成的聊天消息历史组件均通过 langchain_community 包进行导入。
类名描述
ChatMessageHistory默认的内存中实现,适合临时对话
RedisChatMessageHistory使用 Redis 存储对话,适合多用户或持久化
PostgresChatMessageHistory使用 PostgreSQL 存储对话
MongoDBChatMessageHistory使用 MongoDB 存储对话
ZepChatMessageHistory使用 Zep 作为聊天历史存储

第三方 ChatMessageHistory 组件集成:
https://python.langchain.com/v0.2/docs/integrations/memory/

2. 聊天消息历史组件实现记忆功能

FileChatMessageHistory 会将对话历史存储到本地的文件中,可以使用这个记忆组件结合原生的 OpenAI SDK 来实现在命令行界面实现带有记忆功能的对话功能,并且关闭某次对话后,下次运行代码,读取到对应的文件时,仍然可以记忆之前对话的内容。
实现代码

import dotenv
from langchain_community.chat_message_histories import FileChatMessageHistory
from langchain_core.messages import HumanMessage, AIMessage
from openai import OpenAI

dotenv.load_dotenv()

# 1.创建客户端&记忆
client = OpenAI()
chat_history = FileChatMessageHistory("./memory.txt")

# 2.循环对话
while True:
    # 3.获取用户的输入
    query = input("Human: ")

    # 4.检测用户是否退出对话
    if query == "q":
        exit(0)

    # 5.发起聊天对话
    print("AI: ", flush=True, end="")
    system_prompt = (
        "你是由OpenAI开发的ChatGPT聊天机器人,可以根据对应的上下文回复用户信息,上下文里存放的是人类和您交互。\n\n"
        f"<context>\n{chat_history}\n</context>\n\n"
    )
    response = client.chat.completions.create(
        model='gpt-3.5-turbo-16k',
        messages=[
            {"role": "system", "content": system_prompt},
            {"role": "user", "content": query}
        ],
        stream=True,
    )
    ai_content = ""
    for chunk in response:
        content = chunk.choices[0].delta.content
        if content is None:
            break
        ai_content += content
        print(content, flush=True, end="")
    chat_history.add_messages([HumanMessage(query), AIMessage(ai_content)])
    print("")

LangChain 的记忆机制就是:自动保存对话历史,并在每次调用 LLM 时,把历史对话拼接进 prompt 中。

LangChain 记忆模块的核心组件:

组件作用
Memory抽象基类,定义记忆的接口
ConversationBufferMemory最常用的内存型记忆,保存全部对话历史
ConversationSummaryMemory使用 LLM 对历史对话进行摘要,节省上下文长度
ChatMessageHistory聊天历史的具体实现(内存、Redis、Postgres 等)
BaseChatMessageHistory聊天历史的抽象接口
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小陈phd

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值