langchain_nvidia_ai_endpoints.embeddings.NVIDIAEmbeddings

class langchain_nvidia_ai_endpoints.embeddings.NVIDIAEmbeddings[source]

基础:BaseModelEmbeddings

客户端到NVIDIA嵌入模型的接口。

字段:- model:str,要使用的模型名称 - truncate:”NONE”,”START”,”END”,如果输入文本超出模型的

最大令牌长度时,截断输入文本。默认为”NONE”,如果输入过长则引发错误。

创建一个新的NVIDIAEmbeddings嵌入器。

此类提供对NVIDIA NIM嵌入的访问。默认情况下,它连接到一个托管NIM,但可以通过使用base_url参数配置连接到本地NIM。连接到托管NIM需要API密钥。

参数
  • modelstr)– 用于嵌入的模型。

  • nvidia_api_keystr)– 用于连接到托管NIM的API密钥。

  • api_keystr)– nvidia_api_key的替代选项。

  • base_urlstr)– 要连接的NIM的基本URL。基本URL的格式为http://host:port

  • trucatestr)– “NONE”,”START”,”END”,如果输入文本超出模型的上下文长度则截断。默认为”NONE”,如果输入过长则引发错误。

API密钥:- 建议通过NVIDIA_API_KEY环境变量提供API密钥。

param base_url: str[Required]

模型列表和调用的基础URL

param max_batch_size: int = 50
param model : Optional[str] = None

要调用的模型名称

param model_type : Optional[Literal['passage', 'query']] = None

(弃用)要嵌入的文本类型。

param truncate: Literal['NONE', 'START', 'END'] = 'NONE'

如果输入文本超过模型的最大令牌长度,则截断输入文本。默认为 'NONE',如果输入文本过长,将引发错误。

async aembed_documents(texts: List[str]) List[List[float]]

异步嵌入文档搜索。

参数

texts (列表[字符串]) – 要嵌入的文本列表。

返回值

嵌入列表。

返回类型

列表[列表[浮点数]]

async aembed_query(text: str) List[float]

异步嵌入查询文本。

参数

text (字符串) – 要嵌入的文本。

返回值

嵌入。

返回类型

列表[浮点数]

embed_documents(texts: List[str]) List[List[float]][源代码]

文档嵌入的输入路径。

参数

texts (列表[字符串]) –

返回类型

列表[列表[浮点数]]

embed_query(text: str) List[float][源代码]

查询嵌入的输入路径。

参数

text (字符串) –

返回类型

列表[浮点数]

classmethod get_available_models(**kwargs: Any) List[Model][source]

获取与NVIDIAEmbeddings兼容的可用模型列表。

参数

kwargs (Any) –

返回类型

模型列表 [模型]

property available_models: List[Model]

获取与NVIDIAEmbeddings兼容的可用模型列表。