langchain_community.document_compressors.rankllm_rerank.RankLLMRerank

class langchain_community.document_compressors.rankllm_rerank.RankLLMRerank[source]

继承自: BaseDocumentCompressor

使用Flashrank接口的文档压缩器。

通过解析和验证从关键字参数中输入的数据来创建一个新模型。

如果输入数据不能解析为有效的模型,将引发ValidationError。

参数 client: Any = None

用于压缩文档的RankLLM客户端。

参数 gpt_model: str = 'gpt-3.5-turbo'

OpenAI模型名称。

参数 model: str = 'zephyr'

用于重排序的模型名称。

参数 step_size: int = 10

滑动窗口移动的步长大小。

参数 top_n :int = 3

返回的前N篇文档。

async acompress_documents(documents: Sequence[Document], query: str, callbacks: Optional[Union[List[BaseCallbackHandler], BaseCallbackManager]] = None) Sequence[Document]

根据查询上下文异步压缩检索到的文档。

参数
返回值

压缩后的文档。

返回类型

Sequence[Document]

compress_documents(documents: Sequence[Document], query: str, callbacks: Optional[Union[List[BaseCallbackHandler], BaseCallbackManager]] = None) Sequence[Document][源代码]

基于查询上下文压缩检索到的文档。

参数
返回值

压缩后的文档。

返回类型

Sequence[Document]

使用RankLLMRerank的示例