langchain_community.embeddings.ipex_llm.IpexLLMBgeEmbeddings

class langchain_community.embeddings.ipex_llm.IpexLLMBgeEmbeddings[source]

基础类:BaseModelEmbeddings

一个封装在BGE嵌入模型之上的类,使用IPEX-LLM优化在Intel CPU和GPU上。

要使用它,您应该安装了ipex-llmsentence_transformers包。有关在Intel CPU上安装的信息,请参阅此处

Intel CPU上的示例
from langchain_community.embeddings import IpexLLMBgeEmbeddings

embedding_model = IpexLLMBgeEmbeddings(
    model_name="BAAI/bge-large-en-v1.5",
    model_kwargs={},
    encode_kwargs={"normalize_embeddings": True},
)

有关在Intel GPU上安装的信息,请参阅此处

Intel GPU上的示例
from langchain_community.embeddings import IpexLLMBgeEmbeddings

embedding_model = IpexLLMBgeEmbeddings(
    model_name="BAAI/bge-large-en-v1.5",
    model_kwargs={"device": "xpu"},
    encode_kwargs={"normalize_embeddings": True},
)

初始化sentence_transformer。

param cache_folder: Optional[str] = None

存储模型的路径。也可以通过SETNENCE TransformERS_HOME环境变量设置。

param embed_instruction: str = ''

用于嵌入文档的指令。

param encode_kwargs : Dict[str, Any] [Optional]

调用模型的encode方法时传递的键值参数。

param model_kwargs : Dict[str, Any] [Optional]

传递给模型的键值参数。

param model_name : str = 'BAAI/bge-small-en-v1.5'

要使用的模型名称。

param query_instruction: str= '请代表这个问题用于搜索相关的文档:'

用于嵌入查询的指令。

async aembed_documents(texts: List[str]) List[List[float]]

异步嵌搜索文档。

参数

texts (列表[str]) – 要嵌入的文本列表。

返回

嵌入列表。

返回类型

列表[列表[float]]

async aembed_query(text: str) List[float]

异步嵌入查询文本。

参数

text (str) – 要嵌入的文本。

返回

嵌入。

返回类型

列表[float]

embed_documents(texts: List[str]) List[List[float]][源代码]

使用 HuggingFace 的 transformer 模型计算文档嵌入。

参数

texts (列表[str]) – 要嵌入的文本列表。

返回

每个文本的嵌入列表。

返回类型

列表[列表[float]]

embed_query(text: str) List[float][源代码]

使用 HuggingFace 的 transformer 模型计算查询嵌入。

参数

text (str) – 要嵌入的文本。

返回

文本的嵌入。

返回类型

列表[float]