langchain.chains.flare.prompts.FinishedOutputParser¶
注意 (Note)
FinishedOutputParser 实现了标准的 Runnable 接口 (Runnable Interface). 🏃
Runnable 接口 (Runnable Interface) 具有在 runnables (Runnable) 上可用的其他方法,例如 with_types, with_retry, assign, bind, get_graph, 以及更多。
- class langchain.chains.flare.prompts.FinishedOutputParser[source]¶
- 基类 (Bases): - BaseOutputParser[- Tuple[- str,- bool]]- 输出解析器 (Output parser),用于检查输出是否已完成 (finished)。 - param finished_value: str = 'FINISHED'¶
- 指示输出已完成 (finished) 的值 (Value)。 
 - async abatch(inputs: List[Input], config: Optional[Union[RunnableConfig, List[RunnableConfig]]] = None, *, return_exceptions: bool = False, **kwargs: Optional[Any]) List[Output]¶
- 默认实现使用 asyncio.gather 并行运行 ainvoke。 - batch 的默认实现对于 IO 绑定的 runnables (Runnable) 效果良好。 - 如果子类可以更有效地进行批量处理,则应覆盖此方法;例如,如果底层的 Runnable 使用支持批量模式的 API。 - 参数 (Parameters)
- inputs (List[Input]) – Runnable 的输入列表。 
- config (Optional[Union[RunnableConfig, List[RunnableConfig]]]) – 调用 Runnable 时使用的配置 (config)。该配置 (config) 支持标准键,例如用于跟踪目的的 ‘tags’、‘metadata’,用于控制并行执行量的 ‘max_concurrency’ 以及其他键。有关更多详细信息,请参阅 RunnableConfig。默认为 None。 
- return_exceptions (bool) – 是否返回异常而不是引发异常。默认为 False。 
- kwargs (Optional[Any]) – 传递给 Runnable 的其他关键字参数。 
 
- 返回 (Returns)
- 来自 Runnable 的输出列表。 
- 返回类型 (Return type)
- List[Output] 
 
 - async abatch_as_completed(inputs: Sequence[Input], config: Optional[Union[RunnableConfig, Sequence[RunnableConfig]]] = None, *, return_exceptions: bool = False, **kwargs: Optional[Any]) AsyncIterator[Tuple[int, Union[Output, Exception]]]¶
- 并行运行列表中输入的 ainvoke,并在完成时产生结果。 - 参数 (Parameters)
- inputs (Sequence[Input]) – Runnable 的输入列表。 
- config (Optional[Union[RunnableConfig, Sequence[RunnableConfig]]]) – 调用 Runnable 时使用的配置 (config)。该配置 (config) 支持标准键,例如用于跟踪目的的 ‘tags’、‘metadata’,用于控制并行执行量的 ‘max_concurrency’ 以及其他键。有关更多详细信息,请参阅 RunnableConfig。默认为 None。默认为 None。 
- return_exceptions (bool) – 是否返回异常而不是引发异常。默认为 False。 
- kwargs (Optional[Any]) – 传递给 Runnable 的其他关键字参数。 
 
- 产生 (Yields)
- 输入索引和来自 Runnable 的输出的元组。 
- 返回类型 (Return type)
- AsyncIterator[Tuple[int, Union[Output, Exception]]] 
 
 - async ainvoke(input: Union[str, BaseMessage], config: Optional[RunnableConfig] = None, **kwargs: Optional[Any]) T¶
- ainvoke 的默认实现,从线程调用 invoke。 - 即使 Runnable 没有实现 invoke 的原生异步版本,默认实现也允许使用异步代码。 - 如果子类可以异步运行,则应覆盖此方法。 - 参数 (Parameters)
- input (Union[str, BaseMessage]) – 
- config (Optional[RunnableConfig]) – 
- kwargs (Optional[Any]) – 
 
- 返回类型 (Return type)
- T 
 
 - async aparse(text: str) T¶
- 异步解析 (Async parse) 单个字符串模型输出为某种结构。 - 参数 (Parameters)
- text (str) – 语言模型的字符串输出。 
- 返回 (Returns)
- 结构化输出 (Structured output)。 
- 返回类型 (Return type)
- T 
 
 - async aparse_result(result: List[Generation], *, partial: bool = False) T¶
- 异步解析 (Async parse) 候选模型 Generations (Generation) 列表为特定格式。 - 返回值仅从结果中的第一个 Generation (Generation) 解析,该 Generation (Generation)
- 被假定为最高可能性的 Generation (Generation)。 
 - 参数 (Parameters)
- result (List[Generation]) – 要解析的 Generations (Generation) 列表。 Generations (Generation) 被假定为单个模型输入的不同候选输出。 
- partial (bool) – 是否将输出解析为部分结果。 这对于可以解析部分结果的解析器很有用。 默认为 False。 
 
- 返回 (Returns)
- 结构化输出 (Structured output)。 
- 返回类型 (Return type)
- T 
 
 - as_tool(args_schema: Optional[Type[BaseModel]] = None, *, name: Optional[str] = None, description: Optional[str] = None, arg_types: Optional[Dict[str, Type]] = None) BaseTool¶
- Beta - 此 API 处于 beta 阶段,将来可能会更改。 - 从 Runnable 创建一个 BaseTool。 - as_tool将从 Runnable 实例化一个具有名称 (name)、描述 (description) 和- args_schema的 BaseTool。 在可能的情况下,模式 (schemas) 从- runnable.get_input_schema推断。 或者(例如,如果 Runnable 接受 dict 作为输入,并且未键入特定的 dict 键),则可以使用- args_schema直接指定模式 (schema)。 您还可以传递- arg_types以仅指定所需的参数及其类型。- 参数 (Parameters)
- args_schema (Optional[Type[BaseModel]]) – 工具的模式 (schema)。 默认为 None。 
- name (Optional[str]) – 工具的名称 (name)。 默认为 None。 
- description (Optional[str]) – 工具的描述 (description)。 默认为 None。 
- arg_types (Optional[Dict[str, Type]]) – 参数名称到类型的字典。 默认为 None。 
 
- 返回 (Returns)
- BaseTool 实例。 
- 返回类型 (Return type)
 - 类型化 dict 输入 (Typed dict input) - from typing import List from typing_extensions import TypedDict from langchain_core.runnables import RunnableLambda class Args(TypedDict): a: int b: List[int] def f(x: Args) -> str: return str(x["a"] * max(x["b"])) runnable = RunnableLambda(f) as_tool = runnable.as_tool() as_tool.invoke({"a": 3, "b": [1, 2]}) - dict输入,通过- args_schema指定模式 (schema)- from typing import Any, Dict, List from langchain_core.pydantic_v1 import BaseModel, Field from langchain_core.runnables import RunnableLambda def f(x: Dict[str, Any]) -> str: return str(x["a"] * max(x["b"])) class FSchema(BaseModel): """Apply a function to an integer and list of integers.""" a: int = Field(..., description="Integer") b: List[int] = Field(..., description="List of ints") runnable = RunnableLambda(f) as_tool = runnable.as_tool(FSchema) as_tool.invoke({"a": 3, "b": [1, 2]}) - dict输入,通过- arg_types指定模式 (schema)- from typing import Any, Dict, List from langchain_core.runnables import RunnableLambda def f(x: Dict[str, Any]) -> str: return str(x["a"] * max(x["b"])) runnable = RunnableLambda(f) as_tool = runnable.as_tool(arg_types={"a": int, "b": List[int]}) as_tool.invoke({"a": 3, "b": [1, 2]}) - 字符串输入 (String input) - from langchain_core.runnables import RunnableLambda def f(x: str) -> str: return x + "a" def g(x: str) -> str: return x + "z" runnable = RunnableLambda(f) | g as_tool = runnable.as_tool() as_tool.invoke("b") - 0.2.14 版本新增。 
 - async astream(input: Input, config: Optional[RunnableConfig] = None, **kwargs: Optional[Any]) AsyncIterator[Output]¶
- astream 的默认实现,它调用 ainvoke。 如果子类支持流式输出,则应覆盖此方法。 - 参数 (Parameters)
- input (Input) – Runnable 的输入。 
- config (Optional[RunnableConfig]) – 用于 Runnable 的配置 (config)。 默认为 None。 
- kwargs (Optional[Any]) – 传递给 Runnable 的其他关键字参数。 
 
- 产生 (Yields)
- Runnable 的输出。 
- 返回类型 (Return type)
- AsyncIterator[Output] 
 
 - astream_events(input: Any, config: Optional[RunnableConfig] = None, *, version: Literal['v1', 'v2'], include_names: Optional[Sequence[str]] = None, include_types: Optional[Sequence[str]] = None, include_tags: Optional[Sequence[str]] = None, exclude_names: Optional[Sequence[str]] = None, exclude_types: Optional[Sequence[str]] = None, exclude_tags: Optional[Sequence[str]] = None, **kwargs: Any) AsyncIterator[Union[StandardStreamEvent, CustomStreamEvent]]¶
- Beta - 此 API 处于 beta 阶段,将来可能会更改。 - 生成事件流 (stream of events)。 - 用于创建 StreamEvents 的迭代器,该迭代器提供关于 Runnable 进度的实时信息,包括来自中间结果的 StreamEvents。 - StreamEvent 是一个具有以下模式 (schema) 的字典 - event: str - 事件名称的格式为:
- 格式:on_[runnable_type]_(start|stream|end)。 
 
- name: str - 生成事件的 Runnable 的名称 (name)。
- run_id: str - 随机生成的 ID,与发出事件的 Runnable 的给定执行相关联。 作为父 Runnable 执行的一部分调用的子 Runnable 将被分配其自己的唯一 ID。
- Runnable 的 ID。 
 
- parent_ids: List[str] - 生成事件的父 runnables (Runnable) 的 ID。
- 根 Runnable 将有一个空列表。 父 ID 的顺序是从根到直接父级。 仅适用于 API 的 v2 版本。 API 的 v1 版本将返回一个空列表。 
 
- tags: Optional[List[str]] - 生成事件的 Runnable 的标签 (tags)。
- 事件。 
 
- metadata: Optional[Dict[str, Any]] - Runnable 的元数据
- 生成事件的 Runnable 的元数据。 
 
- data: Dict[str, Any]
 - 下表说明了各种链可能发出的一些事件。为了简洁起见,表格中省略了元数据字段。链的定义已包含在表格之后。 - 注意 此参考表适用于 schema 的 V2 版本。 - 事件 - 名称 - 块 - 输入 - 输出 - on_chat_model_start - [模型名称] - {“messages”: [[SystemMessage, HumanMessage]]} - on_chat_model_stream - [模型名称] - AIMessageChunk(content=”hello”) - on_chat_model_end - [模型名称] - {“messages”: [[SystemMessage, HumanMessage]]} - AIMessageChunk(content=”hello world”) - on_llm_start - [模型名称] - {‘input’: ‘hello’} - on_llm_stream - [模型名称] - ‘Hello’ - on_llm_end - [模型名称] - ‘Hello human!’ - on_chain_start - format_docs - on_chain_stream - format_docs - “hello world!, goodbye world!” - on_chain_end - format_docs - [Document(…)] - “hello world!, goodbye world!” - on_tool_start - some_tool - {“x”: 1, “y”: “2”} - on_tool_end - some_tool - {“x”: 1, “y”: “2”} - on_retriever_start - [retriever name] - {“query”: “hello”} - on_retriever_end - [retriever name] - {“query”: “hello”} - [Document(…), ..] - on_prompt_start - [template_name] - {“question”: “hello”} - on_prompt_end - [template_name] - {“question”: “hello”} - ChatPromptValue(messages: [SystemMessage, …]) - 除了标准事件之外,用户还可以分派自定义事件(请参阅下面的示例)。 - 自定义事件将仅在 API 的 v2 版本中显示! - 自定义事件具有以下格式 - 属性 - 类型 - 描述 - 名称 - str - 事件的用户定义名称。 - data - Any - 与事件关联的数据。这可以是任何内容,但我们建议使其可 JSON 序列化。 - 以下是与上面显示的标准事件关联的声明 - format_docs: - def format_docs(docs: List[Document]) -> str: '''Format the docs.''' return ", ".join([doc.page_content for doc in docs]) format_docs = RunnableLambda(format_docs) - some_tool: - @tool def some_tool(x: int, y: str) -> dict: '''Some_tool.''' return {"x": x, "y": y} - prompt: - template = ChatPromptTemplate.from_messages( [("system", "You are Cat Agent 007"), ("human", "{question}")] ).with_config({"run_name": "my_template", "tags": ["my_template"]}) - 示例 - from langchain_core.runnables import RunnableLambda async def reverse(s: str) -> str: return s[::-1] chain = RunnableLambda(func=reverse) events = [ event async for event in chain.astream_events("hello", version="v2") ] # will produce the following events (run_id, and parent_ids # has been omitted for brevity): [ { "data": {"input": "hello"}, "event": "on_chain_start", "metadata": {}, "name": "reverse", "tags": [], }, { "data": {"chunk": "olleh"}, "event": "on_chain_stream", "metadata": {}, "name": "reverse", "tags": [], }, { "data": {"output": "olleh"}, "event": "on_chain_end", "metadata": {}, "name": "reverse", "tags": [], }, ] - 示例:分派自定义事件 - from langchain_core.callbacks.manager import ( adispatch_custom_event, ) from langchain_core.runnables import RunnableLambda, RunnableConfig import asyncio async def slow_thing(some_input: str, config: RunnableConfig) -> str: """Do something that takes a long time.""" await asyncio.sleep(1) # Placeholder for some slow operation await adispatch_custom_event( "progress_event", {"message": "Finished step 1 of 3"}, config=config # Must be included for python < 3.10 ) await asyncio.sleep(1) # Placeholder for some slow operation await adispatch_custom_event( "progress_event", {"message": "Finished step 2 of 3"}, config=config # Must be included for python < 3.10 ) await asyncio.sleep(1) # Placeholder for some slow operation return "Done" slow_thing = RunnableLambda(slow_thing) async for event in slow_thing.astream_events("some_input", version="v2"): print(event) - 参数 (Parameters)
- input (Any) – Runnable 的输入。 
- config (Optional[RunnableConfig]) – 用于 Runnable 的配置。 
- version (Literal['v1', 'v2']) – 要使用的 schema 版本,可以是 v2 或 v1。用户应使用 v2。v1 用于向后兼容,将在 0.4.0 中弃用。在 API 稳定之前,不会分配默认值。自定义事件将仅在 v2 中显示。 
- include_names (Optional[Sequence[str]]) – 仅包含来自具有匹配名称的 runnables 的事件。 
- include_types (Optional[Sequence[str]]) – 仅包含来自具有匹配类型的 runnables 的事件。 
- include_tags (Optional[Sequence[str]]) – 仅包含来自具有匹配标签的 runnables 的事件。 
- exclude_names (Optional[Sequence[str]]) – 排除来自具有匹配名称的 runnables 的事件。 
- exclude_types (Optional[Sequence[str]]) – 排除来自具有匹配类型的 runnables 的事件。 
- exclude_tags (Optional[Sequence[str]]) – 排除来自具有匹配标签的 runnables 的事件。 
- kwargs (Any) – 传递给 Runnable 的其他关键字参数。这些将传递给 astream_log,因为 astream_events 的此实现构建在 astream_log 之上。 
 
- 产生 (Yields)
- StreamEvents 的异步流。 
- Raises
- NotImplementedError – 如果版本不是 v1 或 v2。 
- 返回类型 (Return type)
- AsyncIterator[Union[StandardStreamEvent, CustomStreamEvent]] 
 
 - batch(inputs: List[Input], config: Optional[Union[RunnableConfig, List[RunnableConfig]]] = None, *, return_exceptions: bool = False, **kwargs: Optional[Any]) List[Output]¶
- 默认实现使用线程池执行器并行运行 invoke。 - batch 的默认实现对于 IO 绑定的 runnables (Runnable) 效果良好。 - 如果子类可以更有效地进行批量处理,则应覆盖此方法;例如,如果底层的 Runnable 使用支持批量模式的 API。 - 参数 (Parameters)
- inputs (List[Input]) – 
- config (Optional[Union[RunnableConfig, List[RunnableConfig]]]) – 
- return_exceptions (bool) – 
- kwargs (Optional[Any]) – 
 
- 返回类型 (Return type)
- List[Output] 
 
 - batch_as_completed(inputs: Sequence[Input], config: Optional[Union[RunnableConfig, Sequence[RunnableConfig]]] = None, *, return_exceptions: bool = False, **kwargs: Optional[Any]) Iterator[Tuple[int, Union[Output, Exception]]]¶
- 并行运行列表中输入的 invoke,并在完成后生成结果。 - 参数 (Parameters)
- inputs (Sequence[Input]) – 
- config (Optional[Union[RunnableConfig, Sequence[RunnableConfig]]]) – 
- return_exceptions (bool) – 
- kwargs (Optional[Any]) – 
 
- 返回类型 (Return type)
- Iterator[Tuple[int, Union[Output, Exception]]] 
 
 - configurable_alternatives(which: ConfigurableField, *, default_key: str = 'default', prefix_keys: bool = False, **kwargs: Union[Runnable[Input, Output], Callable[[], Runnable[Input, Output]]]) RunnableSerializable[Input, Output]¶
- 配置可在运行时设置的 Runnables 的备选项。 - 参数 (Parameters)
- which (ConfigurableField) – 将用于选择备选项的 ConfigurableField 实例。 
- default_key (str) – 如果未选择备选项,则使用的默认键。默认为“default”。 
- prefix_keys (bool) – 是否使用 ConfigurableField id 作为键的前缀。默认为 False。 
- **kwargs (Union[Runnable[Input, Output], Callable[[], Runnable[Input, Output]]]) – 键到 Runnable 实例或返回 Runnable 实例的可调用对象的字典。 
 
- 返回 (Returns)
- 配置了备选项的新 Runnable。 
- 返回类型 (Return type)
- RunnableSerializable[Input, Output] 
 - from langchain_anthropic import ChatAnthropic from langchain_core.runnables.utils import ConfigurableField from langchain_openai import ChatOpenAI model = ChatAnthropic( model_name="claude-3-sonnet-20240229" ).configurable_alternatives( ConfigurableField(id="llm"), default_key="anthropic", openai=ChatOpenAI() ) # uses the default model ChatAnthropic print(model.invoke("which organization created you?").content) # uses ChatOpenAI print( model.with_config( configurable={"llm": "openai"} ).invoke("which organization created you?").content ) 
 - configurable_fields(**kwargs: Union[ConfigurableField, ConfigurableFieldSingleOption, ConfigurableFieldMultiOption]) RunnableSerializable[Input, Output]¶
- 在运行时配置特定的 Runnable 字段。 - 参数 (Parameters)
- **kwargs (Union[ConfigurableField, ConfigurableFieldSingleOption, ConfigurableFieldMultiOption]) – 要配置的 ConfigurableField 实例的字典。 
- 返回 (Returns)
- 配置了字段的新 Runnable。 
- 返回类型 (Return type)
- RunnableSerializable[Input, Output] 
 - from langchain_core.runnables import ConfigurableField from langchain_openai import ChatOpenAI model = ChatOpenAI(max_tokens=20).configurable_fields( max_tokens=ConfigurableField( id="output_token_number", name="Max tokens in the output", description="The maximum number of tokens in the output", ) ) # max_tokens = 20 print( "max_tokens_20: ", model.invoke("tell me something about chess").content ) # max_tokens = 200 print("max_tokens_200: ", model.with_config( configurable={"output_token_number": 200} ).invoke("tell me something about chess").content ) 
 - get_format_instructions() str¶
- 关于如何格式化 LLM 输出的说明。 - 返回类型 (Return type)
- str 
 
 - invoke(input: Union[str, BaseMessage], config: Optional[RunnableConfig] = None) T¶
- 将单个输入转换为输出。覆盖以实现。 - 参数 (Parameters)
- input (Union[str, BaseMessage]) – Runnable 的输入。 
- config (Optional[RunnableConfig]) – 调用 Runnable 时要使用的配置。配置支持标准键,例如用于跟踪目的的“tags”、“metadata”,用于控制并行执行多少工作的“max_concurrency”以及其他键。请参阅 RunnableConfig 了解更多详细信息。 
 
- 返回 (Returns)
- Runnable 的输出。 
- 返回类型 (Return type)
- T 
 
 - parse(text: str) Tuple[str, bool][source]¶
- 将单个字符串模型输出解析为某种结构。 - 参数 (Parameters)
- text (str) – 语言模型的字符串输出。 
- 返回 (Returns)
- 结构化输出 (Structured output)。 
- 返回类型 (Return type)
- Tuple[str, bool] 
 
 - parse_result(result: List[Generation], *, partial: bool = False) T¶
- 将候选模型 Generation 列表解析为特定格式。 - 返回值仅从结果中的第一个 Generation (Generation) 解析,该 Generation (Generation)
- 被假定为最高可能性的 Generation (Generation)。 
 - 参数 (Parameters)
- result (List[Generation]) – 要解析的 Generations (Generation) 列表。 Generations (Generation) 被假定为单个模型输入的不同候选输出。 
- partial (bool) – 是否将输出解析为部分结果。 这对于可以解析部分结果的解析器很有用。 默认为 False。 
 
- 返回 (Returns)
- 结构化输出 (Structured output)。 
- 返回类型 (Return type)
- T 
 
 - parse_with_prompt(completion: str, prompt: PromptValue) Any¶
- 使用输入 prompt 作为上下文来解析 LLM 调用的输出。 - 提供 prompt 主要是为了在 OutputParser 想要重试或以某种方式修复输出的情况下,需要来自 prompt 的信息来执行此操作。 - 参数 (Parameters)
- completion (str) – 语言模型的字符串输出。 
- prompt (PromptValue) – 输入 PromptValue。 
 
- 返回 (Returns)
- 结构化输出 (Structured output)。 
- 返回类型 (Return type)
- Any 
 
 - stream(input: Input, config: Optional[RunnableConfig] = None, **kwargs: Optional[Any]) Iterator[Output]¶
- stream 的默认实现,它调用 invoke。如果子类支持流式输出,则应覆盖此方法。 - 参数 (Parameters)
- input (Input) – Runnable 的输入。 
- config (Optional[RunnableConfig]) – 用于 Runnable 的配置 (config)。 默认为 None。 
- kwargs (Optional[Any]) – 传递给 Runnable 的其他关键字参数。 
 
- 产生 (Yields)
- Runnable 的输出。 
- 返回类型 (Return type)
- Iterator[Output] 
 
 - to_json() Union[SerializedConstructor, SerializedNotImplemented]¶
- 将 Runnable 序列化为 JSON。 - 返回 (Returns)
- Runnable 的 JSON 可序列化表示形式。 
- 返回类型 (Return type)