langchain_community.callbacks.streamlit.streamlit_callback_handler.StreamlitCallbackHandler

class langchain_community.callbacks.streamlit.streamlit_callback_handler.StreamlitCallbackHandler(parent_container: DeltaGenerator, *, max_thought_containers: int = 4, expand_new_thoughts: bool = True, collapse_completed_thoughts: bool = True, thought_labeler: Optional[LLMThoughtLabeler] = None)[source]

将内容写入 Streamlit 应用的回调处理程序。

创建 StreamlitCallbackHandler 实例。

参数
  • parent_container (DeltaGenerator) – 将包含处理程序创建的所有 Streamlit 元素的 st.container

  • max_thought_containers (int) – 一次显示的最大已完成 LLM 思考容器数。当达到此阈值时,新的思考将导致最旧的思考折叠到“历史记录”展开器中。默认为 4。

  • expand_new_thoughts (bool) – 每个 LLM “思考” 都有自己的 st.expander。此参数控制该展开器是否默认展开。默认为 True。

  • collapse_completed_thoughts (bool) – 如果为 True,LLM 思考展开器将在完成后折叠。默认为 True。

  • thought_labeler (Optional[LLMThoughtLabeler]) – 可选的自定义 LLMThoughtLabeler 实例。如果未指定,处理程序将使用默认的思考标签逻辑。默认为 None。

属性

ignore_agent

是否忽略代理回调。

ignore_chain

是否忽略链回调。

ignore_chat_model

是否忽略聊天模型回调。

ignore_custom_event

忽略自定义事件。

ignore_llm

是否忽略 LLM 回调。

ignore_retriever

是否忽略检索器回调。

ignore_retry

是否忽略重试回调。

raise_error

如果发生异常是否抛出错误。

run_inline

是否内联运行回调。

方法

__init__(parent_container, *[, ...])

创建 StreamlitCallbackHandler 实例。

on_agent_action(action[, color])

在代理操作时运行。

on_agent_finish(finish[, color])

在代理结束时运行。

on_chain_end(outputs, **kwargs)

在链结束运行时运行。

on_chain_error(error, **kwargs)

在链出错时运行。

on_chain_start(serialized, inputs, **kwargs)

在链开始运行时运行。

on_chat_model_start(serialized, messages, *, ...)

在聊天模型开始运行时运行。

on_custom_event(name, data, *, run_id[, ...])

重写以定义自定义事件的处理程序。

on_llm_end(response, **kwargs)

在 LLM 结束运行时运行。

on_llm_error(error, **kwargs)

在 LLM 出错时运行。

on_llm_new_token(token, **kwargs)

在新的 LLM 令牌上运行。

on_llm_start(serialized, prompts, **kwargs)

在 LLM 开始运行时运行。

on_retriever_end(documents, *, run_id[, ...])

在检索器结束运行时运行。

on_retriever_error(error, *, run_id[, ...])

在检索器出错时运行。

on_retriever_start(serialized, query, *, run_id)

在检索器开始运行时运行。

on_retry(retry_state, *, run_id[, parent_run_id])

在重试事件时运行。

on_text(text[, color, end])

在任意文本上运行。

on_tool_end(output[, color, ...])

在工具结束运行时运行。

on_tool_error(error, **kwargs)

在工具出错时运行。

on_tool_start(serialized, input_str, **kwargs)

在工具开始运行时运行。

__init__(parent_container: DeltaGenerator, *, max_thought_containers: int = 4, expand_new_thoughts: bool = True, collapse_completed_thoughts: bool = True, thought_labeler: Optional[LLMThoughtLabeler] = None)[source]

创建 StreamlitCallbackHandler 实例。

参数
  • parent_container (DeltaGenerator) – 将包含处理程序创建的所有 Streamlit 元素的 st.container

  • max_thought_containers (int) – 一次显示的最大已完成 LLM 思考容器数。当达到此阈值时,新的思考将导致最旧的思考折叠到“历史记录”展开器中。默认为 4。

  • expand_new_thoughts (bool) – 每个 LLM “思考” 都有自己的 st.expander。此参数控制该展开器是否默认展开。默认为 True。

  • collapse_completed_thoughts (bool) – 如果为 True,LLM 思考展开器将在完成后折叠。默认为 True。

  • thought_labeler (Optional[LLMThoughtLabeler]) – 可选的自定义 LLMThoughtLabeler 实例。如果未指定,处理程序将使用默认的思考标签逻辑。默认为 None。

on_agent_action(action: AgentAction, color: Optional[str] = None, **kwargs: Any) Any[source]

在代理操作时运行。

参数
  • action (AgentAction) – 代理操作。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • kwargs (Any) – 附加关键字参数。

  • color (Optional[str]) –

返回类型

Any

on_agent_finish(finish: AgentFinish, color: Optional[str] = None, **kwargs: Any) None[source]

在代理结束时运行。

参数
  • finish (AgentFinish) – 代理完成。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • kwargs (Any) – 附加关键字参数。

  • color (Optional[str]) –

返回类型

None

on_chain_end(outputs: Dict[str, Any], **kwargs: Any) None[source]

在链结束运行时运行。

参数
  • outputs (Dict[str, Any]) – 链的输出。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • kwargs (Any) – 附加关键字参数。

返回类型

None

on_chain_error(error: BaseException, **kwargs: Any) None[source]

在链出错时运行。

参数
  • error (BaseException) – 发生的错误。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • kwargs (Any) – 附加关键字参数。

返回类型

None

on_chain_start(serialized: Dict[str, Any], inputs: Dict[str, Any], **kwargs: Any) None[source]

在链开始运行时运行。

参数
  • serialized (Dict[str, Any]) – 序列化的链。

  • inputs (Dict[str, Any]) – 输入。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • tags (Optional[List[str]]) – 标签。

  • metadata (Optional[Dict[str, Any]]) – 元数据。

  • kwargs (Any) – 附加关键字参数。

返回类型

None

on_chat_model_start(serialized: Dict[str, Any], messages: List[List[BaseMessage]], *, run_id: UUID, parent_run_id: Optional[UUID] = None, tags: Optional[List[str]] = None, metadata: Optional[Dict[str, Any]] = None, **kwargs: Any) Any

在聊天模型开始运行时运行。

注意:此方法为聊天模型调用。如果您正在为

非聊天模型实现处理程序,则应改用 on_llm_start。

参数
  • serialized (Dict[str, Any]) – 序列化的聊天模型。

  • messages (List[List[BaseMessage]]) – 消息。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • tags (Optional[List[str]]) – 标签。

  • metadata (Optional[Dict[str, Any]]) – 元数据。

  • kwargs (Any) – 附加关键字参数。

返回类型

Any

on_custom_event(name: str, data: Any, *, run_id: UUID, tags: Optional[List[str]] = None, metadata: Optional[Dict[str, Any]] = None, **kwargs: Any) Any

重写以定义自定义事件的处理程序。

参数
  • name (str) – 自定义事件的名称。

  • data (Any) – 自定义事件的数据。格式将匹配用户指定的格式。

  • run_id (UUID) – 运行的 ID。

  • tags (Optional[List[str]]) – 与自定义事件关联的标签(包括继承的标签)。

  • metadata (Optional[Dict[str, Any]]) – 与自定义事件关联的元数据(包括继承的元数据)。

  • kwargs (Any) –

返回类型

Any

0.2.15 版本新增。

on_llm_end(response: LLMResult, **kwargs: Any) None[source]

在 LLM 结束运行时运行。

参数
  • response (LLMResult) – 生成的响应。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • kwargs (Any) – 附加关键字参数。

返回类型

None

on_llm_error(error: BaseException, **kwargs: Any) None[source]

在 LLM 出错时运行。

参数
  • error (BaseException) – 发生的错误。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • kwargs (Any) – 附加关键字参数。

返回类型

None

on_llm_new_token(token: str, **kwargs: Any) None[source]

在新 LLM token 上运行。仅在启用流式传输时可用。

参数
  • token (str) – 新的 token。

  • chunk (GenerationChunk | ChatGenerationChunk) – 新生成的 chunk,包含内容和其他信息。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • kwargs (Any) – 附加关键字参数。

返回类型

None

on_llm_start(serialized: Dict[str, Any], prompts: List[str], **kwargs: Any) None[source]

在 LLM 开始运行时运行。

注意: 此方法用于非聊天模型(常规 LLM)。如果

您正在为聊天模型实现处理程序,则应改用 on_chat_model_start。

参数
  • serialized (Dict[str, Any]) – 序列化的 LLM。

  • prompts (List[str]) – 提示(prompts)。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • tags (Optional[List[str]]) – 标签。

  • metadata (Optional[Dict[str, Any]]) – 元数据。

  • kwargs (Any) – 附加关键字参数。

返回类型

None

on_retriever_end(documents: Sequence[Document], *, run_id: UUID, parent_run_id: Optional[UUID] = None, **kwargs: Any) Any

在检索器结束运行时运行。

参数
  • documents (Sequence[Document]) – 检索到的文档(documents)。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • kwargs (Any) – 附加关键字参数。

返回类型

Any

on_retriever_error(error: BaseException, *, run_id: UUID, parent_run_id: Optional[UUID] = None, **kwargs: Any) Any

在检索器出错时运行。

参数
  • error (BaseException) – 发生的错误。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • kwargs (Any) – 附加关键字参数。

返回类型

Any

on_retriever_start(serialized: Dict[str, Any], query: str, *, run_id: UUID, parent_run_id: Optional[UUID] = None, tags: Optional[List[str]] = None, metadata: Optional[Dict[str, Any]] = None, **kwargs: Any) Any

在检索器开始运行时运行。

参数
  • serialized (Dict[str, Any]) – 序列化的 Retriever。

  • query (str) – 查询(query)。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • tags (Optional[List[str]]) – 标签。

  • metadata (Optional[Dict[str, Any]]) – 元数据。

  • kwargs (Any) – 附加关键字参数。

返回类型

Any

on_retry(retry_state: RetryCallState, *, run_id: UUID, parent_run_id: Optional[UUID] = None, **kwargs: Any) Any

在重试事件时运行。

参数
  • retry_state (RetryCallState) – 重试状态(retry state)。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • kwargs (Any) – 附加关键字参数。

返回类型

Any

on_text(text: str, color: Optional[str] = None, end: str = '', **kwargs: Any) None[source]

在任意文本上运行。

参数
  • text (str) – 文本(text)。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • kwargs (Any) – 附加关键字参数。

  • color (Optional[str]) –

  • end (str) –

返回类型

None

on_tool_end(output: Any, color: Optional[str] = None, observation_prefix: Optional[str] = None, llm_prefix: Optional[str] = None, **kwargs: Any) None[source]

在工具结束运行时运行。

参数
  • output (Any) – 工具的输出(output)。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • kwargs (Any) – 附加关键字参数。

  • color (Optional[str]) –

  • observation_prefix (Optional[str]) –

  • llm_prefix (Optional[str]) –

返回类型

None

on_tool_error(error: BaseException, **kwargs: Any) None[source]

在工具出错时运行。

参数
  • error (BaseException) – 发生的错误。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • kwargs (Any) – 附加关键字参数。

返回类型

None

on_tool_start(serialized: Dict[str, Any], input_str: str, **kwargs: Any) None[source]

在工具开始运行时运行。

参数
  • serialized (Dict[str, Any]) – 序列化的工具(tool)。

  • input_str (str) – 输入字符串(input string)。

  • run_id (UUID) – 运行 ID。这是当前运行的 ID。

  • parent_run_id (UUID) – 父运行 ID。这是父运行的 ID。

  • tags (Optional[List[str]]) – 标签。

  • metadata (Optional[Dict[str, Any]]) – 元数据。

  • inputs (Optional[Dict[str, Any]]) – 输入(inputs)。

  • kwargs (Any) – 附加关键字参数。

返回类型

None

使用 StreamlitCallbackHandler 的示例