langchain_core.outputs.chat_result
.ChatResult¶
- class langchain_core.outputs.chat_result.ChatResult[source]¶
继承自:
BaseModel
用于表示使用单个提示调用聊天模型的结果。
此容器由某些聊天模型的实现内部使用,最终将映射到更通用的LLMResult对象,然后投影到AIMessage对象。
使用聊天模型的LangChain用户通常会通过AIMessage(从可运行接口返回)或LLMResult(通过回调提供)访问信息。请参考AIMessage和LLMResult架构文档以获取更多信息。
通过解析和验证关键字参数中的输入数据来创建新模型。
如果输入数据不能解析为有效模型,则引发 ValidationError。
- param generations: List[ChatGeneration] [必需]¶
聊天生成列表。
Generations是一个列表,允许对于单个输入提示有多个候选生成。
- param llm_output: 可选[dict] = None¶
用于任意LLM提供者特定输出的。
这是一个自由形式的字典,可以包含提供者想要返回的任何信息。它没有标准化并且是特定于提供者的。
用户通常应避免依赖此字段,而是通过访问存在于AIMessage中的标准化字段获取相关信息。