langchain_core.outputs.llm_result
.LLMResult¶
- class langchain_core.outputs.llm_result.LLMResult[source]¶
Bases:
BaseModel
用于存储LLM调用结果的容器。
聊天模型和LLM都会生成一个LLMResult对象。此对象包含生成的输出和模型提供者希望返回的任何附加信息。
通过解析和验证关键字参数中的输入数据来创建一个新模型。
如果输入数据无法解析为有效模型,则引发ValidationError。
- 参数 generations: 列表 [[生成]] [必需]¶
生成的输出。
列表的第一个维度表示对不同输入提示的完成内容。
列表的第二个维度表示特定提示的不同候选生成内容。
从LLM返回时,类型为List[List[Generation]]。从聊天模型返回时,类型为List[List[ChatGeneration]]。
ChatGeneration是Generation的一个子类,其中包含一个用于结构化聊天消息的字段。
- 参数 llm_output: 可选[字典] = None¶
用于任意LLM提供者的输出。
这是一个自由形式的字典,可以包含提供者希望返回的任何信息。它不是标准化的,并且是特定于提供者的。
用户通常应避免依赖此字段,而应依赖于从AIMessage中获取标准字段的相关信息。