langchain_core.outputs.llm_result.LLMResult

class langchain_core.outputs.llm_result.LLMResult[source]

Bases: BaseModel

用于存储LLM调用结果的容器。

聊天模型和LLM都会生成一个LLMResult对象。此对象包含生成的输出和模型提供者希望返回的任何附加信息。

通过解析和验证关键字参数中的输入数据来创建一个新模型。

如果输入数据无法解析为有效模型,则引发ValidationError。

参数 generations: 列表 [[生成]] [必需]

生成的输出。

列表的第一个维度表示对不同输入提示的完成内容。

列表的第二个维度表示特定提示的不同候选生成内容。

从LLM返回时,类型为List[List[Generation]]。从聊天模型返回时,类型为List[List[ChatGeneration]]。

ChatGeneration是Generation的一个子类,其中包含一个用于结构化聊天消息的字段。

参数 llm_output: 可选[字典] = None

用于任意LLM提供者的输出。

这是一个自由形式的字典,可以包含提供者希望返回的任何信息。它不是标准化的,并且是特定于提供者的。

用户通常应避免依赖此字段,而应依赖于从AIMessage中获取标准字段的相关信息。

参数 run: 可选[列表 [[运行信息]] = None

每个输入的模型调用元数据信息列表。

flatten() 列表 [[LLMResult]][来源代码]

将生成内容扁平化到一个单独的列表中。

展开List[List[Generation]] -> List[LLMResult],其中每个返回的LLMResult只包含一个生成。如果有令牌使用信息,则仅保留与最佳选择生成对应的LLMResult,以避免下游的令牌使用过计数。

返回

包含单个

生成的LLMResult列表。

返回类型

列表[LLMResult]

使用LLMResult的示例