langchain_community(embeddings).optimum_intel.QuantizedBiEncoderEmbeddings

langchain_community(embeddings).optimum_intel.QuantizedBiEncoderEmbeddings[源代码]

基础: BaseModelEmbeddings

量化的双编码器嵌入模型。

请确保已安装optimum-intel和ipex。

输入

model_name: str = 模型名称。max_seq_len: int = 分词的最大序列长度。(默认512)pooling_strategy: str =

“mean” 或 “cls”,用于最后一层的池化策略。(默认 “mean”)

query_instruction: Optional[str] =

在嵌入之前添加到查询的指令。(默认 None)

document_instruction: Optional[str] =

在嵌入之前添加到每个文档的指令。(默认 None)

padding: Optional[bool] =

是否在分词过程中添加填充。(默认 True)

model_kwargs: Optional[Dict] =

在模型初始化期间添加的参数。(默认 {})

encode_kwargs: Optional[Dict] =

在嵌入前向传递期间添加的参数。(默认 {})

示例

从langchain_community.embeddings导入QuantizedBiEncoderEmbeddings

model_name = “Intel/bge-small-en-v1.5-rag-int8-static” encode_kwargs = {'normalize_embeddings': True} hf = QuantizedBiEncoderEmbeddings(

model_name, encode_kwargs=encode_kwargs, query_instruction="代表此句子以搜索相关段落:”

)

通过解析和验证输入数据从关键字参数创建新的模型。

如果输入数据无法解析为有效的模型,则引发ValidationError。

async aembed_documents(texts: List[str]) List[List[float]

异步嵌入文档搜索。

参数

texts (List[str]) – 需要嵌入的文本列表。

返回

嵌入列表。

返回类型

List[List[float]]

async aembed_query(text: str) List[float]

异步嵌入查询文本。

参数

text (str) – 需要嵌入的文本。

返回

嵌入。

返回类型

[float]]

embed_documents(texts: List[str]) List[List[float]][source]

使用优化的嵌入式模型嵌入文本文档列表。

输入

texts: List[str] = 要嵌入的文本文档列表。

输出

List[List[float]] = 每个文本文档的嵌入。

参数

texts (List[str]) –

返回类型

List[List[float]]

embed_query(text: str) List[float][source]

嵌入查询文本。

参数

text (str) – 需要嵌入的文本。

返回

嵌入。

返回类型

[float]]

load_model() None[source]
返回类型

None

QuantizedBiEncoderEmbeddings 的示例用法