langchain_community.document_compressors.rankllm_rerank
.RankLLMRerank¶
- class langchain_community.document_compressors.rankllm_rerank.RankLLMRerank[source]¶
-
使用Flashrank接口的文档压缩器。
通过解析和验证从关键字参数中输入的数据来创建一个新模型。
如果输入数据不能解析为有效的模型,将引发ValidationError。
- 参数 client: Any = None¶
用于压缩文档的RankLLM客户端。
- 参数 gpt_model: str = 'gpt-3.5-turbo'¶
OpenAI模型名称。
- 参数 model: str = 'zephyr'¶
用于重排序的模型名称。
- 参数 step_size: int = 10¶
滑动窗口移动的步长大小。
- 参数 top_n :int = 3¶
返回的前N篇文档。
- async acompress_documents(documents: Sequence[Document], query: str, callbacks: Optional[Union[List[BaseCallbackHandler], BaseCallbackManager]] = None) Sequence[Document]¶
根据查询上下文异步压缩检索到的文档。
- 参数
documents (Sequence[Document]) – 检索到的文档。
query (str) – 查询上下文。
callbacks (Optional[Union[List[BaseCallbackHandler], BaseCallbackManager]]) – 压缩过程中的可选回调函数。
- 返回值
压缩后的文档。
- 返回类型
Sequence[Document]
- compress_documents(documents: Sequence[Document], query: str, callbacks: Optional[Union[List[BaseCallbackHandler], BaseCallbackManager]] = None) Sequence[Document] [源代码]¶
基于查询上下文压缩检索到的文档。
- 参数
documents (Sequence[Document]) – 检索到的文档。
query (str) – 查询上下文。
callbacks (Optional[Union[List[BaseCallbackHandler], BaseCallbackManager]]) – 压缩过程中的可选回调函数。
- 返回值
压缩后的文档。
- 返回类型
Sequence[Document]