langchain_core.outputs.chat_result.ChatResult

class langchain_core.outputs.chat_result.ChatResult[source]

继承自: BaseModel

用于表示使用单个提示调用聊天模型的结果。

此容器由某些聊天模型的实现内部使用,最终将映射到更通用的LLMResult对象,然后投影到AIMessage对象。

使用聊天模型的LangChain用户通常会通过AIMessage(从可运行接口返回)或LLMResult(通过回调提供)访问信息。请参考AIMessageLLMResult架构文档以获取更多信息。

通过解析和验证关键字参数中的输入数据来创建新模型。

如果输入数据不能解析为有效模型,则引发 ValidationError。

param generations: List[ChatGeneration] [必需]

聊天生成列表。

Generations是一个列表,允许对于单个输入提示有多个候选生成。

param llm_output: 可选[dict] = None

用于任意LLM提供者特定输出的。

这是一个自由形式的字典,可以包含提供者想要返回的任何信息。它没有标准化并且是特定于提供者的。

用户通常应避免依赖此字段,而是通过访问存在于AIMessage中的标准化字段获取相关信息。

使用ChatResult的示例