langchain_community(embeddings).optimum_intel
.QuantizedBiEncoderEmbeddings¶
- 类 langchain_community(embeddings).optimum_intel.QuantizedBiEncoderEmbeddings[源代码]¶
基础:
BaseModel
,Embeddings
量化的双编码器嵌入模型。
请确保已安装optimum-intel和ipex。
- 输入
model_name: str = 模型名称。max_seq_len: int = 分词的最大序列长度。(默认512)pooling_strategy: str =
“mean” 或 “cls”,用于最后一层的池化策略。(默认 “mean”)
- query_instruction: Optional[str] =
在嵌入之前添加到查询的指令。(默认 None)
- document_instruction: Optional[str] =
在嵌入之前添加到每个文档的指令。(默认 None)
- padding: Optional[bool] =
是否在分词过程中添加填充。(默认 True)
- model_kwargs: Optional[Dict] =
在模型初始化期间添加的参数。(默认 {})
- encode_kwargs: Optional[Dict] =
在嵌入前向传递期间添加的参数。(默认 {})
示例
从langchain_community.embeddings导入QuantizedBiEncoderEmbeddings
model_name = “Intel/bge-small-en-v1.5-rag-int8-static” encode_kwargs = {'normalize_embeddings': True} hf = QuantizedBiEncoderEmbeddings(
model_name, encode_kwargs=encode_kwargs, query_instruction="代表此句子以搜索相关段落:”
)
通过解析和验证输入数据从关键字参数创建新的模型。
如果输入数据无法解析为有效的模型,则引发ValidationError。
- async aembed_documents(texts: List[str]) List[List[float]¶
异步嵌入文档搜索。
- 参数
texts (List[str]) – 需要嵌入的文本列表。
- 返回
嵌入列表。
- 返回类型
List[List[float]]
- async aembed_query(text: str) List[float]¶
异步嵌入查询文本。
- 参数
text (str) – 需要嵌入的文本。
- 返回
嵌入。
- 返回类型
[float]]
- embed_documents(texts: List[str]) List[List[float]][source]¶
使用优化的嵌入式模型嵌入文本文档列表。
- 输入
texts: List[str] = 要嵌入的文本文档列表。
- 输出
List[List[float]] = 每个文本文档的嵌入。
- 参数
texts (List[str]) –
- 返回类型
List[List[float]]