langchain.retrievers.document_compressors(chain_extract)
.LLMChainExtractor¶
- class langchain.retrievers.document_compressors(chain_extract).LLMChainExtractor[source]¶
-
使用LLM链提取文档相关部分的文档压缩器。
通过解析和验证关键字参数中的输入数据来创建一个新的模型。
如果输入数据无法解析成有效的模型,则引发ValidationError。
- param get_input: Callable[[str, Document], dict] = <function default_get_input>¶
从查询和文档中构建链输入的可调用函数。
- async acompress_documents(documents: Sequence[Document], query: str, callbacks: Optional[Union[List[BaseCallbackHandler], BaseCallbackManager]] = None) Sequence[Document] [source]¶
异步压缩原始文档的页面内容。
- 参数
documents (Sequence[Document]) –
query (str) –
回调 (可选[联合[列表[BaseCallbackHandler], BaseCallbackManager]]) –
- 返回类型
序列[文档]
- compress_documents(documents: Sequence[文档], query: str, callbacks: Optional[Union[列表[BaseCallbackHandler], BaseCallbackManager]] = None) 序列[文档] [source]¶
压缩原始文档的页面内容。
- 参数
documents (Sequence[Document]) –
query (str) –
回调 (可选[联合[列表[BaseCallbackHandler], BaseCallbackManager]]) –
- 返回类型
序列[文档]
- classmethod from_llm(llm: BaseLanguageModel, prompt: Optional[PromptTemplate] = None, get_input: Optional[Callable[[str, Document], str]] = None, llm_chain_kwargs: Optional[dict] = None) LLMChainExtractor [来源代码]¶
从LLM初始化。
- 参数
llm (BaseLanguageModel) –
prompt (可选[]PromptTemplate]) –
get_input (可选[]Callable[][str,Document],str][]) –
llm_chain_kwargs (可选[]dict[]) –
- 返回类型