langchain_core.runnables.configurable.RunnableConfigurableFields¶
注意
RunnableConfigurableFields 实现了标准的 Runnable 接口。 🏃
Runnable 接口 在 runnable 对象上还有其他可用方法,例如 with_types、 with_retry、 assign、 bind、 get_graph 等。
- class langchain_core.runnables.configurable.RunnableConfigurableFields[source]¶
- 基类: - DynamicRunnable[- Input,- Output]- 可以动态配置的 Runnable 对象。 - RunnableConfigurableFields 应该使用 Runnable 对象的 configurable_fields 方法进行初始化。 - 参数
- fields – 要使用的可配置字段。 
 - 以下是使用带有 LLM 的 RunnableConfigurableFields 的示例 - from langchain_core.prompts import PromptTemplate from langchain_core.runnables import ConfigurableField from langchain_openai import ChatOpenAI model = ChatOpenAI(temperature=0).configurable_fields( temperature=ConfigurableField( id="temperature", name="LLM Temperature", description="The temperature of the LLM", ) ) # This creates a RunnableConfigurableFields for a chat model. # When invoking the created RunnableSequence, you can pass in the # value for your ConfigurableField's id which in this case # will be change in temperature prompt = PromptTemplate.from_template("Pick a random number above {x}") chain = prompt | model chain.invoke({"x": 0}) chain.invoke({"x": 0}, config={"configurable": {"temperature": 0.9}}) - 以下是使用带有 HubRunnables 的 RunnableConfigurableFields 的示例 - from langchain_core.prompts import PromptTemplate from langchain_core.runnables import ConfigurableField from langchain_openai import ChatOpenAI from langchain.runnables.hub import HubRunnable prompt = HubRunnable("rlm/rag-prompt").configurable_fields( owner_repo_commit=ConfigurableField( id="hub_commit", name="Hub Commit", description="The Hub commit to pull from", ) ) prompt.invoke({"question": "foo", "context": "bar"}) # Invoking prompt with `with_config` method prompt.invoke( {"question": "foo", "context": "bar"}, config={"configurable": {"hub_commit": "rlm/rag-prompt-llama"}}, ) - param config: Optional[RunnableConfig] = None¶
 - param default: RunnableSerializable[Input, Output] [Required]¶
 - param fields: Dict[str, Union[ConfigurableField, ConfigurableFieldSingleOption, ConfigurableFieldMultiOption]] [Required]¶
 - async abatch(inputs: List[Input], config: Optional[Union[RunnableConfig, List[RunnableConfig]]] = None, *, return_exceptions: bool = False, **kwargs: Optional[Any]) List[Output]¶
- 默认实现使用 asyncio.gather 并行运行 ainvoke。 - batch 的默认实现非常适用于 IO 绑定的 runnable 对象。 - 如果子类可以更有效地进行批处理,则应重写此方法;例如,如果底层 Runnable 使用支持批处理模式的 API。 - 参数
- inputs (List[Input]) – Runnable 对象的输入列表。 
- config (Optional[Union[RunnableConfig, List[RunnableConfig]]]) – 调用 Runnable 对象时使用的配置。该配置支持标准键,如用于跟踪目的的“tags”、“metadata”,用于控制并行执行量的“max_concurrency”以及其他键。有关更多详细信息,请参阅 RunnableConfig。默认为 None。 
- return_exceptions (bool) – 是否返回异常而不是引发异常。默认为 False。 
- kwargs (Optional[Any]) – 传递给 Runnable 对象的其他关键字参数。 
 
- Returns
- 来自 Runnable 对象的输出列表。 
- Return type
- List[Output] 
 
 - async abatch_as_completed(inputs: Sequence[Input], config: Optional[Union[RunnableConfig, Sequence[RunnableConfig]]] = None, *, return_exceptions: bool = False, **kwargs: Optional[Any]) AsyncIterator[Tuple[int, Union[Output, Exception]]]¶
- 并行运行输入列表上的 ainvoke,并在结果完成时产生结果。 - 参数
- inputs (Sequence[Input]) – Runnable 对象的输入列表。 
- config (Optional[Union[RunnableConfig, Sequence[RunnableConfig]]]) – 调用 Runnable 对象时使用的配置。该配置支持标准键,如用于跟踪目的的“tags”、“metadata”,用于控制并行执行量的“max_concurrency”以及其他键。有关更多详细信息,请参阅 RunnableConfig。默认为 None。默认为 None。 
- return_exceptions (bool) – 是否返回异常而不是引发异常。默认为 False。 
- kwargs (Optional[Any]) – 传递给 Runnable 对象的其他关键字参数。 
 
- Yields
- 输入索引和来自 Runnable 对象的输出的元组。 
- Return type
- AsyncIterator[Tuple[int, Union[Output, Exception]]] 
 
 - async ainvoke(input: Input, config: Optional[RunnableConfig] = None, **kwargs: Any) Output¶
- ainvoke 的默认实现,从线程调用 invoke。 - 即使 Runnable 对象未实现 invoke 的原生异步版本,默认实现也允许使用异步代码。 - 如果子类可以异步运行,则应重写此方法。 - 参数
- input (Input) – 
- config (Optional[RunnableConfig]) – 
- kwargs (Any) – 
 
- Return type
- Output 
 
 - as_tool(args_schema: Optional[Type[BaseModel]] = None, *, name: Optional[str] = None, description: Optional[str] = None, arg_types: Optional[Dict[str, Type]] = None) BaseTool¶
- Beta - 此 API 处于 Beta 阶段,将来可能会发生变化。 - 从 Runnable 对象创建 BaseTool。 - as_tool将从 Runnable 对象实例化一个带有名称、描述和- args_schema的 BaseTool。 在可能的情况下,模式从- runnable.get_input_schema推断。或者(例如,如果 Runnable 对象接受 dict 作为输入,并且未键入特定的 dict 键),可以使用- args_schema直接指定模式。您也可以传递- arg_types以仅指定必需的参数及其类型。- 参数
- args_schema (Optional[Type[BaseModel]]) – 工具的模式。默认为 None。 
- name (Optional[str]) – 工具的名称。默认为 None。 
- description (Optional[str]) – 工具的描述。默认为 None。 
- arg_types (Optional[Dict[str, Type]]) – 参数名称到类型的字典。默认为 None。 
 
- Returns
- BaseTool 实例。 
- Return type
 - 类型化 dict 输入 - from typing import List from typing_extensions import TypedDict from langchain_core.runnables import RunnableLambda class Args(TypedDict): a: int b: List[int] def f(x: Args) -> str: return str(x["a"] * max(x["b"])) runnable = RunnableLambda(f) as_tool = runnable.as_tool() as_tool.invoke({"a": 3, "b": [1, 2]}) - dict输入,通过- args_schema指定模式- from typing import Any, Dict, List from langchain_core.pydantic_v1 import BaseModel, Field from langchain_core.runnables import RunnableLambda def f(x: Dict[str, Any]) -> str: return str(x["a"] * max(x["b"])) class FSchema(BaseModel): """Apply a function to an integer and list of integers.""" a: int = Field(..., description="Integer") b: List[int] = Field(..., description="List of ints") runnable = RunnableLambda(f) as_tool = runnable.as_tool(FSchema) as_tool.invoke({"a": 3, "b": [1, 2]}) - dict输入,通过- arg_types指定模式- from typing import Any, Dict, List from langchain_core.runnables import RunnableLambda def f(x: Dict[str, Any]) -> str: return str(x["a"] * max(x["b"])) runnable = RunnableLambda(f) as_tool = runnable.as_tool(arg_types={"a": int, "b": List[int]}) as_tool.invoke({"a": 3, "b": [1, 2]}) - 字符串输入 - from langchain_core.runnables import RunnableLambda def f(x: str) -> str: return x + "a" def g(x: str) -> str: return x + "z" runnable = RunnableLambda(f) | g as_tool = runnable.as_tool() as_tool.invoke("b") - 0.2.14 版本新增功能。 
 - async astream(input: Input, config: Optional[RunnableConfig] = None, **kwargs: Optional[Any]) AsyncIterator[Output]¶
- astream 的默认实现,它调用 ainvoke。 如果子类支持流式输出,则应重写此方法。 - 参数
- input (Input) – Runnable 对象的输入。 
- config (Optional[RunnableConfig]) – Runnable 对象使用的配置。默认为 None。 
- kwargs (Optional[Any]) – 传递给 Runnable 对象的其他关键字参数。 
 
- Yields
- Runnable 对象的输出。 
- Return type
- AsyncIterator[Output] 
 
 - astream_events(input: Any, config: Optional[RunnableConfig] = None, *, version: Literal['v1', 'v2'], include_names: Optional[Sequence[str]] = None, include_types: Optional[Sequence[str]] = None, include_tags: Optional[Sequence[str]] = None, exclude_names: Optional[Sequence[str]] = None, exclude_types: Optional[Sequence[str]] = None, exclude_tags: Optional[Sequence[str]] = None, **kwargs: Any) AsyncIterator[Union[StandardStreamEvent, CustomStreamEvent]]¶
- Beta - 此 API 处于 Beta 阶段,将来可能会发生变化。 - 生成事件流。 - 用于创建 StreamEvents 的迭代器,该迭代器提供有关 Runnable 对象进度的实时信息,包括来自中间结果的 StreamEvents。 - StreamEvent 是一个字典,具有以下模式 - event: str - 事件名称的格式为
- 格式:on_[runnable_type]_(start|stream|end)。 
 
- name: str - 生成事件的 Runnable 对象的名称。
- run_id: str - 与给定 Runnable 对象执行关联的随机生成的 ID,
- 该 Runnable 对象发出了事件。作为父 Runnable 对象执行的一部分调用的子 Runnable 对象将被分配其自己的唯一 ID。 
 
- parent_ids: List[str] - 父 runnable 对象的 ID,
- 这些父 runnable 对象生成了事件。根 Runnable 对象将具有一个空列表。父 ID 的顺序是从根到直接父级。仅适用于 API 的 v2 版本。API 的 v1 版本将返回一个空列表。 
 
- tags: Optional[List[str]] - 生成事件的 Runnable 对象的标签。
- 事件。 
 
- metadata: Optional[Dict[str, Any]] - Runnable 对象的元数据
- 该 Runnable 对象生成了事件。 
 
- data: Dict[str, Any]
 - 下面是一个表格,说明了各种链可能发出的一些事件。为了简洁起见,元数据字段已从表格中省略。链定义已包含在表格之后。 - 注意 此参考表适用于模式的 V2 版本。 - 事件 - 名称 - 块 - 输入 - 输出 - on_chat_model_start - [模型名称] - {“messages”: [[SystemMessage, HumanMessage]]} - on_chat_model_stream - [模型名称] - AIMessageChunk(content=”你好“) - on_chat_model_end - [模型名称] - {“messages”: [[SystemMessage, HumanMessage]]} - AIMessageChunk(content=”你好 世界“) - on_llm_start - [模型名称] - {‘input’: ‘你好’} - on_llm_stream - [模型名称] - ‘你好’ - on_llm_end - [模型名称] - ‘你好,人类!’ - on_chain_start - format_docs - on_chain_stream - format_docs - “你好 世界!,再见 世界!” - on_chain_end - format_docs - [文档(…)] - “你好 世界!,再见 世界!” - on_tool_start - some_tool - {“x”: 1, “y”: “2”} - on_tool_end - some_tool - {“x”: 1, “y”: “2”} - on_retriever_start - [检索器名称] - {“query”: “你好”} - on_retriever_end - [检索器名称] - {“query”: “你好”} - [文档(…), ..] - on_prompt_start - [模板名称] - {“question”: “你好”} - on_prompt_end - [模板名称] - {“question”: “你好”} - ChatPromptValue(messages: [SystemMessage, …]) - 除了标准事件外,用户还可以调度自定义事件(请参阅下面的示例)。 - 自定义事件将仅在 API 的 v2 版本中显示! - 自定义事件具有以下格式 - 属性 - 类型 - 描述 - 名称 - str - 用户定义的事件名称。 - data - Any - 与事件关联的数据。这可以是任何内容,但我们建议使其可 JSON 序列化。 - 以下是与上面显示的标准事件关联的声明 - format_docs: - def format_docs(docs: List[Document]) -> str: '''Format the docs.''' return ", ".join([doc.page_content for doc in docs]) format_docs = RunnableLambda(format_docs) - some_tool: - @tool def some_tool(x: int, y: str) -> dict: '''Some_tool.''' return {"x": x, "y": y} - prompt: - template = ChatPromptTemplate.from_messages( [("system", "You are Cat Agent 007"), ("human", "{question}")] ).with_config({"run_name": "my_template", "tags": ["my_template"]}) - 示例 - from langchain_core.runnables import RunnableLambda async def reverse(s: str) -> str: return s[::-1] chain = RunnableLambda(func=reverse) events = [ event async for event in chain.astream_events("hello", version="v2") ] # will produce the following events (run_id, and parent_ids # has been omitted for brevity): [ { "data": {"input": "hello"}, "event": "on_chain_start", "metadata": {}, "name": "reverse", "tags": [], }, { "data": {"chunk": "olleh"}, "event": "on_chain_stream", "metadata": {}, "name": "reverse", "tags": [], }, { "data": {"output": "olleh"}, "event": "on_chain_end", "metadata": {}, "name": "reverse", "tags": [], }, ] - 示例:调度自定义事件 - from langchain_core.callbacks.manager import ( adispatch_custom_event, ) from langchain_core.runnables import RunnableLambda, RunnableConfig import asyncio async def slow_thing(some_input: str, config: RunnableConfig) -> str: """Do something that takes a long time.""" await asyncio.sleep(1) # Placeholder for some slow operation await adispatch_custom_event( "progress_event", {"message": "Finished step 1 of 3"}, config=config # Must be included for python < 3.10 ) await asyncio.sleep(1) # Placeholder for some slow operation await adispatch_custom_event( "progress_event", {"message": "Finished step 2 of 3"}, config=config # Must be included for python < 3.10 ) await asyncio.sleep(1) # Placeholder for some slow operation return "Done" slow_thing = RunnableLambda(slow_thing) async for event in slow_thing.astream_events("some_input", version="v2"): print(event) - 参数
- input (Any) – Runnable 对象的输入。 
- config (Optional[RunnableConfig]) – Runnable 对象使用的配置。 
- version (Literal['v1', 'v2']) – 要使用的模式版本,可以是 v2 或 v1。用户应使用 v2。v1 用于向后兼容,将在 0.4.0 中弃用。在 API 稳定之前,不会分配默认值。自定义事件将仅在 v2 中显示。 
- include_names (Optional[Sequence[str]]) – 仅包括来自具有匹配名称的 runnable 对象的事件。 
- include_types (Optional[Sequence[str]]) – 仅包括来自具有匹配类型的 runnable 对象的事件。 
- include_tags (Optional[Sequence[str]]) – 仅包括来自具有匹配标签的 runnable 对象的事件。 
- exclude_names (Optional[Sequence[str]]) – 排除来自具有匹配名称的 runnable 对象的事件。 
- exclude_types (Optional[Sequence[str]]) – 排除来自具有匹配类型的 runnable 对象的事件。 
- exclude_tags (Optional[Sequence[str]]) – 排除来自具有匹配标签的 runnable 对象的事件。 
- kwargs (Any) – 传递给 Runnable 对象的其他关键字参数。这些参数将传递给 astream_log,因为 astream_events 的此实现构建于 astream_log 之上。 
 
- Yields
- StreamEvents 的异步流。 
- 抛出
- NotImplementedError – 如果版本不是 v1 或 v2。 
- Return type
- AsyncIterator[Union[StandardStreamEvent, CustomStreamEvent]] 
 
 - batch(inputs: List[Input], config: Optional[Union[RunnableConfig, List[RunnableConfig]]] = None, *, return_exceptions: bool = False, **kwargs: Optional[Any]) List[Output]¶
- 默认实现使用线程池执行器并行运行 invoke。 - batch 的默认实现非常适用于 IO 绑定的 runnable 对象。 - 如果子类可以更有效地进行批处理,则应重写此方法;例如,如果底层 Runnable 使用支持批处理模式的 API。 - 参数
- inputs (List[Input]) – 
- config (Optional[Union[RunnableConfig, List[RunnableConfig]]]) – 
- return_exceptions (bool) – 
- kwargs (Optional[Any]) – 
 
- Return type
- List[Output] 
 
 - batch_as_completed(inputs: Sequence[Input], config: Optional[Union[RunnableConfig, Sequence[RunnableConfig]]] = None, *, return_exceptions: bool = False, **kwargs: Optional[Any]) Iterator[Tuple[int, Union[Output, Exception]]]¶
- 并行地对输入列表运行 invoke,并在结果完成时产生结果。 - 参数
- inputs (Sequence[Input]) – 
- config (Optional[Union[RunnableConfig, Sequence[RunnableConfig]]]) – 
- return_exceptions (bool) – 
- kwargs (Optional[Any]) – 
 
- Return type
- Iterator[Tuple[int, Union[Output, Exception]]] 
 
 - configurable_alternatives(which: ConfigurableField, *, default_key: str = 'default', prefix_keys: bool = False, **kwargs: Union[Runnable[Input, Output], Callable[[], Runnable[Input, Output]]]) RunnableSerializable[Input, Output]¶
- 配置可在运行时设置的 Runnables 的备选项。 - 参数
- Returns
- 配置了备选项的新 Runnable。 
- Return type
- RunnableSerializable[Input, Output] 
 - from langchain_anthropic import ChatAnthropic from langchain_core.runnables.utils import ConfigurableField from langchain_openai import ChatOpenAI model = ChatAnthropic( model_name="claude-3-sonnet-20240229" ).configurable_alternatives( ConfigurableField(id="llm"), default_key="anthropic", openai=ChatOpenAI() ) # uses the default model ChatAnthropic print(model.invoke("which organization created you?").content) # uses ChatOpenAI print( model.with_config( configurable={"llm": "openai"} ).invoke("which organization created you?").content ) 
 - configurable_fields(**kwargs: Union[ConfigurableField, ConfigurableFieldSingleOption, ConfigurableFieldMultiOption]) RunnableSerializable[Input, Output][source]¶
- 获取具有指定可配置字段的新 RunnableConfigurableFields。 - 参数
- kwargs (Union[ConfigurableField, ConfigurableFieldSingleOption, ConfigurableFieldMultiOption]) – 
- Return type
- RunnableSerializable[Input, Output] 
 
 - invoke(input: Input, config: Optional[RunnableConfig] = None, **kwargs: Any) Output¶
- 将单个输入转换为输出。覆盖此方法以实现。 - 参数
- input (Input) – Runnable 对象的输入。 
- config (Optional[RunnableConfig]) – 调用 Runnable 时使用的配置。配置支持标准键,例如用于跟踪目的的 ‘tags’、‘metadata’,用于控制并行执行量的 ‘max_concurrency’ 以及其他键。有关更多详细信息,请参阅 RunnableConfig。 
- kwargs (Any) – 
 
- Returns
- Runnable 对象的输出。 
- Return type
- Output 
 
 - prepare(config: Optional[RunnableConfig] = None) Tuple[Runnable[Input, Output], RunnableConfig]¶
- 准备 Runnable 以进行调用。 - 参数
- config (Optional[RunnableConfig]) – 要使用的配置。默认为 None。 
- Returns
- 准备好的 Runnable 和配置。 
- Return type
- Tuple[Runnable[Input, Output], RunnableConfig] 
 
 - stream(input: Input, config: Optional[RunnableConfig] = None, **kwargs: Optional[Any]) Iterator[Output]¶
- stream 的默认实现,它调用 invoke。如果子类支持流式输出,则应覆盖此方法。 - 参数
- input (Input) – Runnable 对象的输入。 
- config (Optional[RunnableConfig]) – Runnable 对象使用的配置。默认为 None。 
- kwargs (Optional[Any]) – 传递给 Runnable 对象的其他关键字参数。 
 
- Yields
- Runnable 对象的输出。 
- Return type
- Iterator[Output] 
 
 - to_json() Union[SerializedConstructor, SerializedNotImplemented]¶
- 将 Runnable 序列化为 JSON。 - Returns
- Runnable 的 JSON 可序列化表示形式。 
- Return type