langchain.chains.openai_tools.extraction
.create_extraction_chain_pydantic¶
- langchain.chains.openai_tools.extraction.create_extraction_chain_pydantic(pydantic_schemas: Union[List[Type[BaseModel]], Type[BaseModel]], llm: BaseLanguageModel, system_message: str = 'Extract and save the relevant entities mentioned in the following passage together with their properties.\n\nIf a property is not present and is not required in the function parameters, do not include it in the output.') Runnable [source]¶
已弃用自版本 0.1.14: LangChain 引入了一个名为 with_structured_output 的方法,该方法适用于支持工具调用的 ChatModel。您可以在以下链接中了解更多关于此方法的信息:<https://python.langchain.ac.cn/docs/modules/model_io/chat/structured_output/>。有关如何使用 LLM 进行信息提取的更多指导,请参阅我们的提取用例文档。<https://python.langchain.ac.cn/docs/use_cases/extraction/>。with_structured_output 目前不支持 pydantic schemas 的列表。如果这是一个阻碍因素或您注意到其他问题,请在此处提供反馈:<https://github.com/langchain-ai/langchain/discussions/18154</a>。使用 `` from langchain_core.pydantic_v1 import BaseModel, Field from langchain_anthropic import ChatAnthropic
- class Joke(BaseModel)
setup: str = Field(description="笑话的正文") punchline: str = Field(description="笑话的结尾")
# 或者任何其他支持工具的聊天模型。# 请参考 structured_output 的文档来查看支持 with_structured_output 的模型列表。model = ChatAnthropic(model="claude-3-opus-20240229", temperature=0) structured_llm = model.with_structured_output(Joke) structured_llm.invoke("告诉我一个关于猫的笑话。
确保调用 Joke 函数。”)
``。
创建一个从段落中提取信息的链。
- 参数
pydantic_schemas (Union[List[Type[BaseModel]], Type[BaseModel]]) – 要提取实体的模式。
llm (BaseLanguageModel) – 要使用的语言模型。
system_message (str) – 用于提取的系统消息。
- 返回
一个从段落中提取信息的可执行对象。
- 返回类型