langchain.agents.openai_functions_agent.agent_token_buffer_memory
.AgentTokenBufferMemory¶
- class langchain.agents.openai_functions_agent.agent_token_buffer_memory.AgentTokenBufferMemory[源代码]¶
基类:
BaseChatMemory
用于保存代理输出和中间步骤的内存。
- 参数
human_prefix – 人类消息的前缀。默认为“Human”。
ai_prefix – AI消息的前缀。默认为“AI”。
llm – 语言模型。
memory_key – 保存内存的键。默认为“history”。
max_token_limit – 缓冲区中保持的最大令牌数。一旦缓冲区超过这么多令牌,最旧的消息将被移除。默认为 12000。
return_messages – 是否返回消息。默认为 True。
output_key – 保存输出的键。默认为“output”。
intermediate_steps_key – 保存中间步骤的键。默认为“intermediate_steps”。
format_as_tools – 是否格式化为工具。默认为 False。
- param ai_prefix: str = 'AI'¶
- param chat_memory: BaseChatMessageHistory [可选]¶
- param format_as_tools: bool = False¶
- param human_prefix: str = 'Human'¶
- param input_key: Optional[str] = None¶
- 参数 intermediate_steps_key: str = 'intermediate_steps'¶
- 参数 llm: BaseLanguageModel [必须]¶
- 参数 max_token_limit: int = 12000¶
缓冲区中保留的最大标记数。一旦缓冲区超过这么多标记,最 old 的消息将被修剪。
- 参数 memory_key: str = 'history'¶
- 参数 output_key: str = 'output'¶
- 参数 return_messages: bool = True¶
- async aclear() None ¶
清除内存内容。
- 返回类型
None
- async aload_memory_variables(inputs: Dict[str, Any]) Dict[str, Any] ¶
根据链文本输入异步返回键值对。
- 参数
inputs (Dict[str, Any]) – 链的输入。
- 返回
键值对的字典。
- 返回类型
Dict[str, Any]
- async asave_context(inputs: Dict[str, Any], outputs: Dict[str, str]) None ¶
将本次对话的上下文保存到缓冲区。
- 参数
**inputs**(《字典》 [字符串 ,任意内容]) -
**outputs**(《字典》 [字符串 ,字符串]) -
- 返回类型
None
- clear() None ¶
清除内存内容。
- 返回类型
None
- load_memory_variables(inputs: Dict[str, Any]) Dict[str, Any] [source]¶
返回历史缓冲区。
- 参数
**inputs**(《字典》 [字符串 ,任意内容]) - 传递给代理的输入。
- 返回
包含历史缓冲区的字典。
- 返回类型
Dict[str, Any]
- save_context(inputs: Dict[str, Any], outputs: Dict[str, Any]) None [source]¶
将本次对话的上下文保存到缓冲区。经过修剪。
- 参数
**inputs**(《字典》 [字符串 ,任意内容]) - 传递给代理的输入。
**outputs**(《字典》 [字符串 ,任意内容]) - 代理的输出。
- 返回类型
None
- 属性 buffer: 列表[BaseMessage]¶
内存的字符串缓冲区。