langchain.chains.openai_functions.extraction
.create_extraction_chain_pydantic¶
- langchain.chains.openai_functions.extraction.create_extraction_chain_pydantic(pydantic_schema: Any, llm: BaseLanguageModel, prompt: Optional[BasePromptTemplate] = None, verbose: bool = False) Chain [源码]¶
自版本 0.1.14 起弃用: LangChain 引入了一个名为 with_structured_output 的方法,该方法适用于能够进行工具调用的 ChatModels。您可以在此处了解更多关于该方法的信息:<https://python.langchain.ac.cn/docs/modules/model_io/chat/structured_output/>。有关如何使用 LLM 进行信息提取的更多指南,请参阅我们的提取用例文档:<https://python.langchain.ac.cn/docs/use_cases/extraction/>。如果您发现其他问题,请在此处提供反馈:<https://github.com/langchain-ai/langchain/discussions/18154>。使用 `` from langchain_core.pydantic_v1 import BaseModel, Field from langchain_anthropic import ChatAnthropic
- class Joke(BaseModel)
setup: str = Field(description=”笑话的设置”) punchline: str = Field(description=”笑话的结尾”)
# 或者任何其他支持工具的聊天模型。 # 请参阅 structured_output 的文档以获取当前的模型列表,这些模型支持 with_structured_output。 model = ChatAnthropic(model=”claude-3-opus-20240229”, temperature=0) structured_llm = model.with_structured_output(Joke) structured_llm.invoke(“Tell me a joke about cats.
Make sure to call the Joke function.”)
`` 代替。
使用 pydantic 架构从段落中提取信息的链。
- 参数
pydantic_schema (Any) – 要提取的实体的 pydantic 架构。
llm (BaseLanguageModel) - 要使用的语言模型。
prompt (Optional[BasePromptTemplate]) – 用于提取的提示。
verbose (bool) – 是否以详细模式运行。在详细模式下,一些中间日志将打印到控制台。默认为全局 verbose 值,可通过 langchain.globals.get_verbose 访问
- 返回
可用于从段落中提取信息的链。
- 返回类型