langchain_nvidia_ai_endpoints.embeddings
.NVIDIAEmbeddings¶
- class langchain_nvidia_ai_endpoints.embeddings.NVIDIAEmbeddings[source]¶
基础:
BaseModel
,Embeddings
客户端到NVIDIA嵌入模型的接口。
字段:- model:str,要使用的模型名称 - truncate:”NONE”,”START”,”END”,如果输入文本超出模型的
最大令牌长度时,截断输入文本。默认为”NONE”,如果输入过长则引发错误。
创建一个新的NVIDIAEmbeddings嵌入器。
此类提供对NVIDIA NIM嵌入的访问。默认情况下,它连接到一个托管NIM,但可以通过使用base_url参数配置连接到本地NIM。连接到托管NIM需要API密钥。
- 参数
model (str)– 用于嵌入的模型。
nvidia_api_key (str)– 用于连接到托管NIM的API密钥。
api_key (str)– nvidia_api_key的替代选项。
base_url (str)– 要连接的NIM的基本URL。基本URL的格式为http://host:port
trucate (str)– “NONE”,”START”,”END”,如果输入文本超出模型的上下文长度则截断。默认为”NONE”,如果输入过长则引发错误。
API密钥:- 建议通过NVIDIA_API_KEY环境变量提供API密钥。
- param base_url: str[Required]¶
模型列表和调用的基础URL
- param max_batch_size: int = 50¶
- param model : Optional[str] = None¶
要调用的模型名称
- param model_type : Optional[Literal['passage', 'query']] = None¶
(弃用)要嵌入的文本类型。
- param truncate: Literal['NONE', 'START', 'END'] = 'NONE'¶
如果输入文本超过模型的最大令牌长度,则截断输入文本。默认为 'NONE',如果输入文本过长,将引发错误。
- async aembed_documents(texts: List[str]) List[List[float]] ¶
异步嵌入文档搜索。
- 参数
texts (列表[字符串]) – 要嵌入的文本列表。
- 返回值
嵌入列表。
- 返回类型
列表[列表[浮点数]]
- async aembed_query(text: str) List[float] ¶
异步嵌入查询文本。
- 参数
text (字符串) – 要嵌入的文本。
- 返回值
嵌入。
- 返回类型
列表[浮点数]
- embed_documents(texts: List[str]) List[List[float]] [源代码]¶
文档嵌入的输入路径。
- 参数
texts (列表[字符串]) –
- 返回类型
列表[列表[浮点数]]
- classmethod get_available_models(**kwargs: Any) List[Model] [source]¶
获取与NVIDIAEmbeddings兼容的可用模型列表。
- 参数
kwargs (Any) –
- 返回类型
模型列表 [模型]
- property available_models: List[Model]¶
获取与NVIDIAEmbeddings兼容的可用模型列表。