langchain.agents.output_parsers.self_ask.SelfAskOutputParser¶
注意
SelfAskOutputParser 实现了标准的 Runnable 接口。 🏃
Runnable 接口 具有在 runnable 上可用的其他方法,例如 with_types、 with_retry、 assign、 bind、 get_graph 等。
- class langchain.agents.output_parsers.self_ask.SelfAskOutputParser[source]¶
- 
解析自问风格的 LLM 调用。 期望输出为以下两种格式之一。 如果输出信号表明应采取操作,则应采用以下格式。这将导致返回 AgentAction。 ` 想法在此处... 跟进: 旧金山的温度是多少? `如果输出信号表明应给出最终答案,则应采用以下格式。这将导致返回 AgentFinish。 ` 想法在此处... 所以最终答案是: 温度是 100 度 `- param finish_string: str = 'So the final answer is: '¶
 - param followups: Sequence[str] = ('Follow up:', 'Followup:')¶
 - async abatch(inputs: List[Input], config: Optional[Union[RunnableConfig, List[RunnableConfig]]] = None, *, return_exceptions: bool = False, **kwargs: Optional[Any]) List[Output]¶
- 默认实现使用 asyncio.gather 并行运行 ainvoke。 - batch 的默认实现对于 IO 绑定的 runnable 效果良好。 - 如果子类可以更有效地进行批量处理,则应覆盖此方法;例如,如果底层的 Runnable 使用支持批量模式的 API。 - 参数
- inputs (List[Input]) – Runnable 的输入列表。 
- config (Optional[Union[RunnableConfig, List[RunnableConfig]]]) – 调用 Runnable 时要使用的配置。该配置支持标准键,如用于跟踪目的的“tags”、“metadata”,用于控制并行执行量的“max_concurrency”以及其他键。有关更多详细信息,请参阅 RunnableConfig。默认为 None。 
- return_exceptions (bool) – 是否返回异常而不是引发异常。默认为 False。 
- kwargs (Optional[Any]) – 要传递给 Runnable 的其他关键字参数。 
 
- 返回
- 来自 Runnable 的输出列表。 
- 返回类型
- List[Output] 
 
 - async abatch_as_completed(inputs: Sequence[Input], config: Optional[Union[RunnableConfig, Sequence[RunnableConfig]]] = None, *, return_exceptions: bool = False, **kwargs: Optional[Any]) AsyncIterator[Tuple[int, Union[Output, Exception]]]¶
- 并行运行列表中输入的 ainvoke,并在结果完成时生成结果。 - 参数
- inputs (Sequence[Input]) – Runnable 的输入列表。 
- config (Optional[Union[RunnableConfig, Sequence[RunnableConfig]]]) – 调用 Runnable 时要使用的配置。该配置支持标准键,如用于跟踪目的的“tags”、“metadata”,用于控制并行执行量的“max_concurrency”以及其他键。有关更多详细信息,请参阅 RunnableConfig。默认为 None。默认为 None。 
- return_exceptions (bool) – 是否返回异常而不是引发异常。默认为 False。 
- kwargs (Optional[Any]) – 要传递给 Runnable 的其他关键字参数。 
 
- 产生
- 输入索引和来自 Runnable 的输出的元组。 
- 返回类型
- AsyncIterator[Tuple[int, Union[Output, Exception]]] 
 
 - async ainvoke(input: Union[str, BaseMessage], config: Optional[RunnableConfig] = None, **kwargs: Optional[Any]) T¶
- ainvoke 的默认实现,从线程调用 invoke。 - 即使 Runnable 没有实现 invoke 的原生异步版本,默认实现也允许使用异步代码。 - 如果子类可以异步运行,则应覆盖此方法。 - 参数
- input (Union[str, BaseMessage]) – 
- config (Optional[RunnableConfig]) – 
- kwargs (Optional[Any]) – 
 
- 返回类型
- T 
 
 - async aparse(text: str) T¶
- 异步解析单个字符串模型输出为某种结构。 - 参数
- text (str) – 语言模型的字符串输出。 
- 返回
- 结构化输出。 
- 返回类型
- T 
 
 - async aparse_result(result: List[Generation], *, partial: bool = False) T¶
- 异步解析候选模型 Generation 列表为特定格式。 - 返回值仅从结果中的第一个 Generation 解析,该 Generation
- 被假定为最高可能性的 Generation。 
 - 参数
- result (List[Generation]) – 要解析的 Generation 列表。这些 Generation 被假定为单个模型输入的不同候选输出。 
- partial (bool) – 是否将输出解析为部分结果。这对于可以解析部分结果的解析器很有用。默认为 False。 
 
- 返回
- 结构化输出。 
- 返回类型
- T 
 
 - as_tool(args_schema: Optional[Type[BaseModel]] = None, *, name: Optional[str] = None, description: Optional[str] = None, arg_types: Optional[Dict[str, Type]] = None) BaseTool¶
- Beta - 此 API 处于 Beta 阶段,将来可能会发生变化。 - 从 Runnable 创建 BaseTool。 - as_tool将从 Runnable 实例化具有名称、描述和- args_schema的 BaseTool。如果可能,架构会从- runnable.get_input_schema推断。或者(例如,如果 Runnable 接受 dict 作为输入,并且未键入特定 dict 键),则可以使用- args_schema直接指定架构。您还可以传递- arg_types以仅指定必需的参数及其类型。- 参数
- args_schema (Optional[Type[BaseModel]]) – 工具的架构。默认为 None。 
- name (Optional[str]) – 工具的名称。默认为 None。 
- description (Optional[str]) – 工具的描述。默认为 None。 
- arg_types (Optional[Dict[str, Type]]) – 参数名称到类型的字典。默认为 None。 
 
- 返回
- BaseTool 实例。 
- 返回类型
 - 类型化字典输入 - from typing import List from typing_extensions import TypedDict from langchain_core.runnables import RunnableLambda class Args(TypedDict): a: int b: List[int] def f(x: Args) -> str: return str(x["a"] * max(x["b"])) runnable = RunnableLambda(f) as_tool = runnable.as_tool() as_tool.invoke({"a": 3, "b": [1, 2]}) - dict输入,通过- args_schema指定架构- from typing import Any, Dict, List from langchain_core.pydantic_v1 import BaseModel, Field from langchain_core.runnables import RunnableLambda def f(x: Dict[str, Any]) -> str: return str(x["a"] * max(x["b"])) class FSchema(BaseModel): """Apply a function to an integer and list of integers.""" a: int = Field(..., description="Integer") b: List[int] = Field(..., description="List of ints") runnable = RunnableLambda(f) as_tool = runnable.as_tool(FSchema) as_tool.invoke({"a": 3, "b": [1, 2]}) - dict输入,通过- arg_types指定架构- from typing import Any, Dict, List from langchain_core.runnables import RunnableLambda def f(x: Dict[str, Any]) -> str: return str(x["a"] * max(x["b"])) runnable = RunnableLambda(f) as_tool = runnable.as_tool(arg_types={"a": int, "b": List[int]}) as_tool.invoke({"a": 3, "b": [1, 2]}) - 字符串输入 - from langchain_core.runnables import RunnableLambda def f(x: str) -> str: return x + "a" def g(x: str) -> str: return x + "z" runnable = RunnableLambda(f) | g as_tool = runnable.as_tool() as_tool.invoke("b") - 0.2.14 版本新增功能。 
 - async astream(input: Input, config: Optional[RunnableConfig] = None, **kwargs: Optional[Any]) AsyncIterator[Output]¶
- astream 的默认实现,它调用 ainvoke。如果子类支持流式输出,则应覆盖此方法。 - 参数
- input (Input) – Runnable 的输入。 
- config (Optional[RunnableConfig]) – Runnable 要使用的配置。默认为 None。 
- kwargs (Optional[Any]) – 要传递给 Runnable 的其他关键字参数。 
 
- 产生
- Runnable 的输出。 
- 返回类型
- AsyncIterator[Output] 
 
 - astream_events(input: Any, config: Optional[RunnableConfig] = None, *, version: Literal['v1', 'v2'], include_names: Optional[Sequence[str]] = None, include_types: Optional[Sequence[str]] = None, include_tags: Optional[Sequence[str]] = None, exclude_names: Optional[Sequence[str]] = None, exclude_types: Optional[Sequence[str]] = None, exclude_tags: Optional[Sequence[str]] = None, **kwargs: Any) AsyncIterator[Union[StandardStreamEvent, CustomStreamEvent]]¶
- Beta - 此 API 处于 Beta 阶段,将来可能会发生变化。 - 生成事件流。 - 用于创建 StreamEvents 的迭代器,该迭代器提供有关 Runnable 进度的实时信息,包括来自中间结果的 StreamEvents。 - StreamEvent 是一个具有以下架构的字典 - event: str - 事件名称的格式为:on_[runnable_type]_(start|stream|end)。
- 格式:on_[runnable_type]_(start|stream|end)。 
 
- name: str - 生成事件的 Runnable 的名称。
- run_id: str - 与发出事件的 Runnable 的给定执行关联的随机生成的 ID。作为父 Runnable 执行的一部分调用的子 Runnable 将被分配自己的唯一 ID。
- 父 Runnable 执行的一部分调用的子 Runnable 将被分配自己的唯一 ID。 
 
- parent_ids: List[str] - 生成事件的父 runnable 的 ID 列表。根 Runnable 将具有空列表。父 ID 的顺序是从根到直接父级。仅适用于 API 的 v2 版本。API 的 v1 版本将返回一个空列表。
- 父 ID 的顺序是从根到直接父级。仅适用于 API 的 v2 版本。API 的 v1 版本将返回一个空列表。 
 
- tags: Optional[List[str]] - 生成事件的 Runnable 的标签。
- 生成事件的 Runnable 的标签。 
 
- metadata: Optional[Dict[str, Any]] - 生成事件的 Runnable 的元数据。
- 生成事件的 Runnable 的元数据。 
 
- data: Dict[str, Any]
 - 下表说明了各种链可能发出的一些事件。为简洁起见,表中省略了元数据字段。链定义已包含在表后。 - 注意 此参考表适用于 V2 版本的架构。 - 事件 - 名称 - 块 - 输入 - 输出 - on_chat_model_start - [模型名称] - {“messages”: [[SystemMessage, HumanMessage]]} - on_chat_model_stream - [模型名称] - AIMessageChunk(content=”hello”) - on_chat_model_end - [模型名称] - {“messages”: [[SystemMessage, HumanMessage]]} - AIMessageChunk(content=”hello world”) - on_llm_start - [模型名称] - {‘input’: ‘hello’} - on_llm_stream - [模型名称] - ‘Hello’ - on_llm_end - [模型名称] - ‘Hello human!’ - on_chain_start - format_docs - on_chain_stream - format_docs - “hello world!, goodbye world!” - on_chain_end - format_docs - [Document(…)] - “hello world!, goodbye world!” - on_tool_start - some_tool - {“x”: 1, “y”: “2”} - on_tool_end - some_tool - {“x”: 1, “y”: “2”} - on_retriever_start - [检索器名称] - {“query”: “hello”} - on_retriever_end - [检索器名称] - {“query”: “hello”} - [Document(…), ..] - on_prompt_start - [模板名称] - {“question”: “hello”} - on_prompt_end - [模板名称] - {“question”: “hello”} - ChatPromptValue(messages: [SystemMessage, …]) - 除了标准事件外,用户还可以分派自定义事件(请参见下面的示例)。 - 自定义事件将仅在 API 的 v2 版本中显示! - 自定义事件具有以下格式 - 属性 - 类型 - 描述 - 名称 - str - 用户定义的事件名称。 - data - Any - 与事件关联的数据。这可以是任何内容,但我们建议使其可 JSON 序列化。 - 以下是与上面显示的标准事件关联的声明 - format_docs: - def format_docs(docs: List[Document]) -> str: '''Format the docs.''' return ", ".join([doc.page_content for doc in docs]) format_docs = RunnableLambda(format_docs) - some_tool: - @tool def some_tool(x: int, y: str) -> dict: '''Some_tool.''' return {"x": x, "y": y} - prompt: - template = ChatPromptTemplate.from_messages( [("system", "You are Cat Agent 007"), ("human", "{question}")] ).with_config({"run_name": "my_template", "tags": ["my_template"]}) - 示例 - from langchain_core.runnables import RunnableLambda async def reverse(s: str) -> str: return s[::-1] chain = RunnableLambda(func=reverse) events = [ event async for event in chain.astream_events("hello", version="v2") ] # will produce the following events (run_id, and parent_ids # has been omitted for brevity): [ { "data": {"input": "hello"}, "event": "on_chain_start", "metadata": {}, "name": "reverse", "tags": [], }, { "data": {"chunk": "olleh"}, "event": "on_chain_stream", "metadata": {}, "name": "reverse", "tags": [], }, { "data": {"output": "olleh"}, "event": "on_chain_end", "metadata": {}, "name": "reverse", "tags": [], }, ] - 示例:分派自定义事件 - from langchain_core.callbacks.manager import ( adispatch_custom_event, ) from langchain_core.runnables import RunnableLambda, RunnableConfig import asyncio async def slow_thing(some_input: str, config: RunnableConfig) -> str: """Do something that takes a long time.""" await asyncio.sleep(1) # Placeholder for some slow operation await adispatch_custom_event( "progress_event", {"message": "Finished step 1 of 3"}, config=config # Must be included for python < 3.10 ) await asyncio.sleep(1) # Placeholder for some slow operation await adispatch_custom_event( "progress_event", {"message": "Finished step 2 of 3"}, config=config # Must be included for python < 3.10 ) await asyncio.sleep(1) # Placeholder for some slow operation return "Done" slow_thing = RunnableLambda(slow_thing) async for event in slow_thing.astream_events("some_input", version="v2"): print(event) - 参数
- input (Any) – Runnable 的输入。 
- config (Optional[RunnableConfig]) – Runnable 要使用的配置。 
- version (Literal['v1', 'v2']) – schema 的版本,可以使用 v2 或 v1。v2 是推荐用户使用的版本。v1 为了向后兼容而保留,将在 0.4.0 版本中弃用。在 API 稳定之前,不会分配默认值。自定义事件仅在 v2 中显示。 
- include_names (Optional[Sequence[str]]) – 仅包含来自名称匹配的可运行对象的事件。 
- include_types (Optional[Sequence[str]]) – 仅包含来自类型匹配的可运行对象的事件。 
- include_tags (Optional[Sequence[str]]) – 仅包含来自标签匹配的可运行对象的事件。 
- exclude_names (Optional[Sequence[str]]) – 排除来自名称匹配的可运行对象的事件。 
- exclude_types (Optional[Sequence[str]]) – 排除来自类型匹配的可运行对象的事件。 
- exclude_tags (Optional[Sequence[str]]) – 排除来自标签匹配的可运行对象的事件。 
- kwargs (Any) – 传递给 Runnable 的其他关键字参数。这些参数将传递给 astream_log,因为此 astream_events 的实现是基于 astream_log 构建的。 
 
- 产生
- StreamEvents 的异步流。 
- Raises
- NotImplementedError – 如果版本不是 v1 或 v2。 
- 返回类型
- AsyncIterator[Union[StandardStreamEvent, CustomStreamEvent]] 
 
 - batch(inputs: List[Input], config: Optional[Union[RunnableConfig, List[RunnableConfig]]] = None, *, return_exceptions: bool = False, **kwargs: Optional[Any]) List[Output]¶
- 默认实现使用线程池执行器并行运行 invoke。 - batch 的默认实现对于 IO 绑定的 runnable 效果良好。 - 如果子类可以更有效地进行批量处理,则应覆盖此方法;例如,如果底层的 Runnable 使用支持批量模式的 API。 - 参数
- inputs (List[Input]) – 
- config (Optional[Union[RunnableConfig, List[RunnableConfig]]]) – 
- return_exceptions (bool) – 
- kwargs (Optional[Any]) – 
 
- 返回类型
- List[Output] 
 
 - batch_as_completed(inputs: Sequence[Input], config: Optional[Union[RunnableConfig, Sequence[RunnableConfig]]] = None, *, return_exceptions: bool = False, **kwargs: Optional[Any]) Iterator[Tuple[int, Union[Output, Exception]]]¶
- 在输入列表上并行运行 invoke,并在完成时产生结果。 - 参数
- inputs (Sequence[Input]) – 
- config (Optional[Union[RunnableConfig, Sequence[RunnableConfig]]]) – 
- return_exceptions (bool) – 
- kwargs (Optional[Any]) – 
 
- 返回类型
- Iterator[Tuple[int, Union[Output, Exception]]] 
 
 - configurable_alternatives(which: ConfigurableField, *, default_key: str = 'default', prefix_keys: bool = False, **kwargs: Union[Runnable[Input, Output], Callable[[], Runnable[Input, Output]]]) RunnableSerializable[Input, Output]¶
- 为可在运行时设置的 Runnables 配置备选项。 - 参数
- which (ConfigurableField) – 将用于选择备选项的 ConfigurableField 实例。 
- default_key (str) – 如果未选择任何备选项,则使用的默认键。默认为 “default”。 
- prefix_keys (bool) – 是否使用 ConfigurableField id 作为键的前缀。默认为 False。 
- **kwargs (Union[Runnable[Input, Output], Callable[[], Runnable[Input, Output]]]) – 键到 Runnable 实例或返回 Runnable 实例的可调用对象的字典。 
 
- 返回
- 配置了备选项的新 Runnable。 
- 返回类型
- RunnableSerializable[Input, Output] 
 - from langchain_anthropic import ChatAnthropic from langchain_core.runnables.utils import ConfigurableField from langchain_openai import ChatOpenAI model = ChatAnthropic( model_name="claude-3-sonnet-20240229" ).configurable_alternatives( ConfigurableField(id="llm"), default_key="anthropic", openai=ChatOpenAI() ) # uses the default model ChatAnthropic print(model.invoke("which organization created you?").content) # uses ChatOpenAI print( model.with_config( configurable={"llm": "openai"} ).invoke("which organization created you?").content ) 
 - configurable_fields(**kwargs: Union[ConfigurableField, ConfigurableFieldSingleOption, ConfigurableFieldMultiOption]) RunnableSerializable[Input, Output]¶
- 在运行时配置特定的 Runnable 字段。 - 参数
- **kwargs (Union[ConfigurableField, ConfigurableFieldSingleOption, ConfigurableFieldMultiOption]) – 要配置的 ConfigurableField 实例的字典。 
- 返回
- 配置了字段的新 Runnable。 
- 返回类型
- RunnableSerializable[Input, Output] 
 - from langchain_core.runnables import ConfigurableField from langchain_openai import ChatOpenAI model = ChatOpenAI(max_tokens=20).configurable_fields( max_tokens=ConfigurableField( id="output_token_number", name="Max tokens in the output", description="The maximum number of tokens in the output", ) ) # max_tokens = 20 print( "max_tokens_20: ", model.invoke("tell me something about chess").content ) # max_tokens = 200 print("max_tokens_200: ", model.with_config( configurable={"output_token_number": 200} ).invoke("tell me something about chess").content ) 
 - get_format_instructions() str¶
- 关于如何格式化 LLM 输出的说明。 - 返回类型
- str 
 
 - invoke(input: Union[str, BaseMessage], config: Optional[RunnableConfig] = None) T¶
- 将单个输入转换为输出。覆盖此方法以实现。 - 参数
- input (Union[str, BaseMessage]) – Runnable 的输入。 
- config (Optional[RunnableConfig]) – 调用 Runnable 时使用的配置。该配置支持标准键,例如用于跟踪目的的 ‘tags’、‘metadata’,用于控制并行执行量的 ‘max_concurrency’ 以及其他键。请参阅 RunnableConfig 以获取更多详细信息。 
 
- 返回
- Runnable 的输出。 
- 返回类型
- T 
 
 - parse(text: str) Union[AgentAction, AgentFinish][source]¶
- 将文本解析为 agent action/finish。 - 参数
- text (str) – 
- 返回类型
- Union[AgentAction, AgentFinish] 
 
 - parse_result(result: List[Generation], *, partial: bool = False) T¶
- 将候选模型 Generations 列表解析为特定格式。 - 返回值仅从结果中的第一个 Generation 解析,该 Generation
- 被假定为最高可能性的 Generation。 
 - 参数
- result (List[Generation]) – 要解析的 Generation 列表。这些 Generation 被假定为单个模型输入的不同候选输出。 
- partial (bool) – 是否将输出解析为部分结果。这对于可以解析部分结果的解析器很有用。默认为 False。 
 
- 返回
- 结构化输出。 
- 返回类型
- T 
 
 - parse_with_prompt(completion: str, prompt: PromptValue) Any¶
- 使用输入 prompt 的上下文来解析 LLM 调用的输出。 - 提供 prompt 主要是为了在 OutputParser 想要重试或以某种方式修复输出时,需要来自 prompt 的信息来执行此操作。 - 参数
- completion (str) – 语言模型的字符串输出。 
- prompt (PromptValue) – 输入 PromptValue。 
 
- 返回
- 结构化输出。 
- 返回类型
- Any 
 
 - stream(input: Input, config: Optional[RunnableConfig] = None, **kwargs: Optional[Any]) Iterator[Output]¶
- stream 的默认实现,它调用 invoke。如果子类支持流式输出,则应覆盖此方法。 - 参数
- input (Input) – Runnable 的输入。 
- config (Optional[RunnableConfig]) – Runnable 要使用的配置。默认为 None。 
- kwargs (Optional[Any]) – 要传递给 Runnable 的其他关键字参数。 
 
- 产生
- Runnable 的输出。 
- 返回类型
- Iterator[Output] 
 
 - to_json() Union[SerializedConstructor, SerializedNotImplemented]¶
- 将 Runnable 序列化为 JSON。 - 返回
- Runnable 的 JSON 可序列化表示形式。 
- 返回类型