langchain.agents.openai_functions_agent.agent_token_buffer_memory.AgentTokenBufferMemory

class langchain.agents.openai_functions_agent.agent_token_buffer_memory.AgentTokenBufferMemory[源代码]

基类: BaseChatMemory

用于保存代理输出和中间步骤的内存。

参数
  • human_prefix – 人类消息的前缀。默认为“Human”。

  • ai_prefix – AI消息的前缀。默认为“AI”。

  • llm – 语言模型。

  • memory_key – 保存内存的键。默认为“history”。

  • max_token_limit – 缓冲区中保持的最大令牌数。一旦缓冲区超过这么多令牌,最旧的消息将被移除。默认为 12000。

  • return_messages – 是否返回消息。默认为 True。

  • output_key – 保存输出的键。默认为“output”。

  • intermediate_steps_key – 保存中间步骤的键。默认为“intermediate_steps”。

  • format_as_tools – 是否格式化为工具。默认为 False。

param ai_prefix: str = 'AI'
param chat_memory: BaseChatMessageHistory [可选]
param format_as_tools: bool = False
param human_prefix: str = 'Human'
param input_key: Optional[str] = None
参数 intermediate_steps_key: str = 'intermediate_steps'
参数 llm: BaseLanguageModel [必须]
参数 max_token_limit: int = 12000

缓冲区中保留的最大标记数。一旦缓冲区超过这么多标记,最 old 的消息将被修剪。

参数 memory_key: str = 'history'
参数 output_key: str = 'output'
参数 return_messages: bool = True
async aclear() None

清除内存内容。

返回类型

None

async aload_memory_variables(inputs: Dict[str, Any]) Dict[str, Any]

根据链文本输入异步返回键值对。

参数

inputs (Dict[str, Any]) – 链的输入。

返回

键值对的字典。

返回类型

Dict[str, Any]

async asave_context(inputs: Dict[str, Any], outputs: Dict[str, str]) None

将本次对话的上下文保存到缓冲区。

参数
  • **inputs**(《字典》 [字符串 任意内容]) -

  • **outputs**(《字典》 [字符串 字符串]) -

返回类型

None

clear() None

清除内存内容。

返回类型

None

load_memory_variables(inputs: Dict[str, Any]) Dict[str, Any][source]

返回历史缓冲区。

参数

**inputs**(《字典》 [字符串 任意内容]) - 传递给代理的输入。

返回

包含历史缓冲区的字典。

返回类型

Dict[str, Any]

save_context(inputs: Dict[str, Any], outputs: Dict[str, Any]) None[source]

将本次对话的上下文保存到缓冲区。经过修剪。

参数
  • **inputs**(《字典》 [字符串 任意内容]) - 传递给代理的输入。

  • **outputs**(《字典》 [字符串 任意内容]) - 代理的输出。

返回类型

None

属性 buffer: 列表[BaseMessage]

内存的字符串缓冲区。