langchain.agents.structured_chat.base
.StructuredChatAgent¶
- class langchain.agents.structured_chat.base.StructuredChatAgent[source]¶
基础:
Agent
自版本 0.1.0 被弃用: 请使用
create_structured_chat_agent
代替。结构化聊天代理。
通过解析和验证关键字参数的数据来创建一个新的模型。
如果输入数据无法解析成有效的模型,将引发 ValidationError。
- 参数 allowed_tools: Optional[List[str]]] = None¶
代理允许使用的工具。如果为 None,则允许使用所有工具。
- 参数 output_parser: AgentOutputParser [可选]¶
代理的输出解析器。
- async aplan(intermediate_steps: List[Tuple[AgentAction, str]], callbacks: Optional[Union[List[BaseCallbackHandler], BaseCallbackManager]], **kwargs: Any) Union[AgentAction, AgentFinish] ¶
异步给定输入,决定要做什么。
- 参数
intermediate_steps (List[Tuple[AgentAction, str]]) – LLM迄今为止采取的步骤,以及观察结果。
callbacks (Optional[Union[List[BaseCallbackHandler], BaseCallbackManager]]) – 要运行的回调。
**kwargs (Any) – 用户输入。
- 返回
指定使用什么工具的动作。
- 返回类型
Union[AgentAction, AgentFinish]
- classmethod create_prompt(tools: Sequence[BaseTool], prefix: str = 'Respond to the human as helpfully and accurately as possible. You have access to the following tools:', suffix: str = 'Begin! Reminder to ALWAYS respond with a valid json blob of a single action. Use tools if necessary. Respond directly if appropriate. Format is Action:```$JSON_BLOB```then Observation:.\nThought:', human_message_template: str = '{input}\n\n{agent_scratchpad}', format_instructions: str = 'Use a json blob to specify a tool by providing an action key (tool name) and an action_input key (tool input).\n\nValid "action" values: "Final Answer" or {tool_names}\n\nProvide only ONE action per $JSON_BLOB, as shown:\n\n```\n{{{{\n "action": $TOOL_NAME,\n "action_input": $INPUT\n}}}}\n```\n\nFollow this format:\n\nQuestion: input question to answer\nThought: consider previous and subsequent steps\nAction:\n```\n$JSON_BLOB\n```\nObservation: action result\n... (repeat Thought/Action/Observation N times)\nThought: I know what to respond\nAction:\n```\n{{{{\n "action": "Final Answer",\n "action_input": "Final response to human"\n}}}}\n```', input_variables: Optional[List[str]] = None, memory_prompts: Optional[List[BasePromptTemplate]] = None) BasePromptTemplate [source]¶
为该类创建提示。
- 参数
tools (Sequence[BaseTool]) – 要使用的工具。
prefix (str) –
suffix (str) –
human_message_template (str) –
format_instructions (str) –
input_variables (Optional[List[str]]) –
memory_prompts (Optional[List[BasePromptTemplate]]) –
- 返回
提示模板。
- 返回类型
- classmethod from_llm_and_tools(llm: BaseLanguageModel, tools: Sequence[BaseTool], callback_manager: Optional[BaseCallbackManager] = None, output_parser: Optional[AgentOutputParser] = None, prefix: str = 'Respond to the human as helpfully and accurately as possible. You have access to the following tools:', suffix: str = 'Begin! Reminder to ALWAYS respond with a valid json blob of a single action. Use tools if necessary. Respond directly if appropriate. Format is Action:```$JSON_BLOB```then Observation:.\nThought:', human_message_template: str = '{input}\n\n{agent_scratchpad}', format_instructions: str = 'Use a json blob to specify a tool by providing an action key (tool name) and an action_input key (tool input).\n\nValid "action" values: "Final Answer" or {tool_names}\n\nProvide only ONE action per $JSON_BLOB, as shown:\n\n```\n{{{{\n "action": $TOOL_NAME,\n "action_input": $INPUT\n}}}}\n```\n\nFollow this format:\n\nQuestion: input question to answer\nThought: consider previous and subsequent steps\nAction:\n```\n$JSON_BLOB\n```\nObservation: action result\n... (repeat Thought/Action/Observation N times)\nThought: I know what to respond\nAction:\n```\n{{{{\n "action": "Final Answer",\n "action_input": "Final response to human"\n}}}}\n```', input_variables: Optional[List[str]] = None, memory_prompts: Optional[List[BasePromptTemplate]] = None, **kwargs: Any) Agent [source]¶
从LLM和工具中构建一个代理。
- 参数
llm (BaseLanguageModel) -
tools (Sequence[BaseTool]) -
callback_manager (Optional[BaseCallbackManager]) -
output_parser (Optional[AgentOutputParser]) -
prefix (str) –
suffix (str) –
human_message_template (str) –
format_instructions (str) –
input_variables (Optional[List[str]]) –
memory_prompts (Optional[List[BasePromptTemplate]]) –
kwargs (Any) -
- 返回类型
- get_allowed_tools() Optional[List[str]]¶
获取允许的工具。
- 返回类型
可选 [字符串列表]
- get_full_inputs(intermediate_steps: List[Tuple[AgentAction, str]], **kwargs: Any) Dict[str, Any]¶
从中间步骤创建LLMChain的完整输入。
- 参数
intermediate_steps (List[Tuple[AgentAction, str]]) – LLM迄今为止采取的步骤,以及观察结果。
**kwargs (Any) – 用户输入。
- 返回
LLMChain的完整输入。
- 返回类型
字符串到任意的字典
- 计划(intermediate_steps:List[Tuple[AgentAction, str]], :callbacks:Optional[Union[List[BaseCallbackHandler], BaseCallbackManager]] = None, :kwargs:Any→ Union[AgentAction, AgentFinish]¶
根据输入决定要做什么。
- 参数
intermediate_steps (List[Tuple[AgentAction, str]]) – LLM迄今为止采取的步骤,以及观察结果。
callbacks (Optional[Union[List[BaseCallbackHandler], BaseCallbackManager]]) – 要运行的回调。
**kwargs (Any) – 用户输入。
- 返回
指定使用什么工具的动作。
- 返回类型
Union[AgentAction, AgentFinish]
- return_stopped_response(early_stopping_method:str, intermediate_steps:List[Tuple[AgentAction, str]], :kwargs:Any→ AgentFinish¶
当代理因最大迭代次数停止时返回响应。
- 参数
early_stopping_method (str) – 用于早期停止的方法。
intermediate_steps (List[Tuple[AgentAction, str]]) – LLM迄今为止采取的步骤,以及观察结果。
**kwargs (Any) – 用户输入。
- 返回
代理完成对象。
- 返回类型
- 抛出
ValueError – 如果 early_stopping_method 不在 [‘force’,‘generate’] 中。
- save(file_path: Union[Path, str]) None ¶
保存代理。
- 参数
file_path (Union[Path, str]) – 要保存代理的文件路径。
- 返回类型
无
示例: .. code-block:: python
如果与代理执行器一起使用:agent.agent.save(file_path="path/agent.yaml")
- tool_run_logging_kwargs() Dict ¶
返回工具运行时的日志kwargs。
- 返回类型
字典
- 属性 llm_prefix: str¶
附加到llm调用的前缀。
- 属性 observation_prefix: str¶
附加到观察的前缀。
- 属性 return_values: List[str]¶
代理的返回值。