Skip to main content

Motörhead内存

Motörhead是一个用Rust实现的内存服务器。它在后台自动处理增量摘要,并允许无状态应用程序。

设置

请参阅Motörhead上的说明以在本地运行服务器。

from langchain.memory.motorhead_memory import MotorheadMemory
from langchain import OpenAI, LLMChain, PromptTemplate

template = """您是一个与人类进行对话的聊天机器人。

{chat_history}
人类: {human_input}
AI:"""

prompt = PromptTemplate(
input_variables=["chat_history", "human_input"], template=template
)
memory = MotorheadMemory(
session_id="testing-1", url="http://localhost:8080", memory_key="chat_history"
)

await memory.init()
# 从Motörhead加载先前的状态 🤘

llm_chain = LLMChain(
llm=OpenAI(),
prompt=prompt,
verbose=True,
memory=memory,
)
llm_chain.run("hi im bob")
    

> 进入新的LLMChain链...
格式化后的提示:
您是一个与人类进行对话的聊天机器人。


人类: hi im bob
AI:

> 完成链。






' 嗨Bob,很高兴见到你!你今天过得怎么样?'
llm_chain.run("whats my name?")
    

> 进入新的LLMChain链...
格式化后的提示:
您是一个与人类进行对话的聊天机器人。

人类: hi im bob
AI: 嗨Bob,很高兴见到你!你今天过得怎么样?
人类: whats my name?
AI:

> 完成链。






' 你说你的名字是Bob。这正确吗?'
llm_chain.run("whats for dinner?")
    

> 进入新的LLMChain链...
格式化后的提示:
您是一个与人类进行对话的聊天机器人。

人类: hi im bob
AI: 嗨Bob,很高兴见到你!你今天过得怎么样?
人类: whats my name?
AI: 你说你的名字是Bob。这正确吗?
人类: whats for dinner?
AI:

> 完成链。






" 对不起,我不确定你在问什么。你能重新表达你的问题吗?"