langchain_community.vectorstores.thirdai_neuraldb.NeuralDBVectorStore

class langchain_community.vectorstores.thirdai_neuraldb.NeuralDBVectorStore(db: Any)[source]

使用 ThirdAI’s NeuralDB 的向量数据库。

要使用,您应该安装 thirdai[neural_db] python 包。

示例

from langchain_community.vectorstores import NeuralDBVectorStore
from thirdai import neural_db as ndb

db = ndb.NeuralDB()
vectorstore = NeuralDBVectorStore(db=db)

属性

db

NeuralDB 实例

embeddings

如果可用,访问查询嵌入对象。

方法

__init__(db)

aadd_documents(documents, **kwargs)

异步地通过嵌入运行更多文档并添加到向量数据库。

aadd_texts(texts[, metadatas])

异步地通过嵌入运行更多文本并添加到向量数据库。

add_documents(documents, **kwargs)

在向量数据库中添加或更新文档。

add_texts(texts[, metadatas])

通过嵌入运行更多文本并添加到向量数据库。

adelete([ids])

异步地按向量 ID 或其他标准删除。

afrom_documents(documents, embedding, **kwargs)

异步地从文档和嵌入初始化并返回 VectorStore。

afrom_texts(texts, embedding[, metadatas])

异步地从文本和嵌入初始化并返回 VectorStore。

aget_by_ids(ids, /)

异步地按 ID 获取文档。

amax_marginal_relevance_search(query[, k, ...])

异步地返回使用最大边际相关性选择的文档。

amax_marginal_relevance_search_by_vector(...)

异步地返回使用最大边际相关性选择的文档。

as_retriever(**kwargs)

返回从该 VectorStore 初始化后的 VectorStoreRetriever。

asearch(query, search_type, **kwargs)

异步地返回使用指定搜索类型与查询最相似的文档。

asimilarity_search(query[, k])

异步地返回与查询最相似的文档。

asimilarity_search_by_vector(embedding[, k])

异步地返回与嵌入向量最相似的文档。

asimilarity_search_with_relevance_scores(query)

异步地返回范围在 [0, 1] 内的文档和相关性得分。

asimilarity_search_with_score(*args, **kwargs)

异步地运行带距离的相似性搜索。

associate(source, target)

向量数据库将源短语与目标短语关联起来。

associate_batch(text_pairs)

给定一批(源,目标)对,向量数据库将每个源短语与相应的目标短语关联起来。

astreaming_upsert(items, /, batch_size, **kwargs)

aupsert(items, /, **kwargs)

delete([ids])

按向量 ID 或其他标准删除。

from_checkpoint(checkpoint[, thirdai_key])

从保存的检查点创建一个带有基础模型的 NeuralDBVectorStore

from_documents(documents, embedding, **kwargs)

从文档和嵌入初始化并返回 VectorStore。

from_scratch([thirdai_key])

从头开始创建一个 NeuralDBVectorStore。

from_texts(texts, embedding[, metadatas])

从文本和嵌入初始化并返回 VectorStore。

get_by_ids(ids, /)

按 ID 获取文档。

insert(sources[, train, fast_mode])

将文件/文档源插入到向量数据库中。

max_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

max_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。

save(path)

将 NeuralDB 实例保存到磁盘。

search(query, search_type, **kwargs)

返回使用指定搜索类型与查询最相似的文档。

similarity_search(query[, k])

检索给定查询的 {k} 个上下文

similarity_search_by_vector(embedding[, k])

返回与嵌入向量最相似的文档。

similarity_search_with_relevance_scores(query)

返回范围在 [0, 1] 内的文档和相关性得分。

similarity_search_with_score(*args, **kwargs)

运行带距离的相似性搜索。

streaming_upsert(items, /, batch_size, **kwargs)

upsert(items, /, **kwargs)

upvote(query, document_id)

向量数据库提高特定查询的文档得分权重。

upvote_batch(query_id_pairs)

给定一批(查询,文档 id)对,向量数据库提高相应查询的文档得分权重。

validate_environments(values)

验证 ThirdAI 环境变量。

参数

db (Any) –

__init__(db: Any) None[source]
参数

db (Any) –

返回类型

None

async aadd_documents(documents: List[Document], **kwargs: Any) List[str]]

异步地通过嵌入运行更多文档并添加到向量数据库。

参数
  • documents (List[Document]) – 要添加到向量数据库的文档列表。

  • kwargs (Any) – 额外的关键字参数。

返回

添加的文本的 ID 列表。

Raises

ValueError – 如果 ID 数量与文档数量不匹配,则引发 ValueError。

返回类型

List[str]

async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]]] = None, **kwargs: Any) List[str]]

异步地通过嵌入运行更多文本并添加到向量数据库。

参数
  • texts (Iterable[str]) – 要添加到向量数据库的字符串的可迭代对象。

  • metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。默认为 None。

  • **kwargs (Any) – 向量数据库特定的参数。

返回

从将文本添加到向量数据库中返回的 id 列表。

Raises
  • ValueError – 如果元数据的数量与文本的数量不匹配,则引发 ValueError。

  • ValueError – 如果 id 的数量与文本的数量不匹配,则引发 ValueError。

返回类型

List[str]

add_documents(documents: List[Document], **kwargs: Any) List[str]]

在向量数据库中添加或更新文档。

参数
  • documents (List[Document]) – 要添加到向量数据库的文档列表。

  • kwargs (Any) – 额外的关键字参数。如果 kwargs 包含 ids 并且 documents 包含 ids,则 kwargs 中的 ids 将优先。

返回

添加的文本的 ID 列表。

Raises

ValueError – 如果 id 数量与文档数量不匹配,则引发 ValueError。

返回类型

List[str]

add_texts(texts: Iterable[str], metadatas: Optional[List[dict]]] = None, **kwargs: Any) List[str]][source]

通过嵌入运行更多文本并添加到向量数据库。

参数
  • texts (Iterable[str]) – 要添加到向量数据库的字符串的可迭代对象。

  • metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。

  • kwargs (Any) – 向量数据库特定的参数

返回

从将文本添加到向量数据库中返回的 id 列表。

返回类型

List[str]

async adelete(ids: Optional[List[str]]] = None, **kwargs: Any) Optional[bool]]

异步地按向量 ID 或其他标准删除。

参数
  • ids (Optional[List[str]]) – 要删除的 id 列表。如果为 None,则删除全部。默认为 None。

  • **kwargs (Any) – 子类可能使用的其他关键字参数。

返回

如果删除成功,则返回 True,否则返回 False,如果未实现,则返回 None。

返回类型

Optional[bool]

async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST

异步地从文档和嵌入初始化并返回 VectorStore。

参数
  • documents (List[Document]) – 要添加到向量数据库的文档列表。

  • embedding (Embeddings) – 要使用的嵌入函数。

  • kwargs (Any) – 额外的关键字参数。

返回

从文档和嵌入初始化的 VectorStore。

返回类型

VectorStore

async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]]] = None, **kwargs: Any) VST

异步地从文本和嵌入初始化并返回 VectorStore。

参数
  • texts (List[str]) – 要添加到向量数据库的文本列表。

  • embedding (Embeddings) – 要使用的嵌入函数。

  • metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。默认为 None。

  • kwargs (Any) – 额外的关键字参数。

返回

从文本和嵌入初始化的 VectorStore。

返回类型

VectorStore

async aget_by_ids(ids: Sequence[str], /) List[Document]]

异步地按 ID 获取文档。

返回的文档应将 ID 字段设置为向量存储中文档的 ID。

如果某些 ID 未找到或存在重复 ID,则返回的文档可能少于请求的文档。

用户不应假设返回文档的顺序与输入 ID 的顺序匹配。相反,用户应依赖返回文档的 ID 字段。

如果某些 ID 未找到文档,此方法不应引发异常。

参数

ids (Sequence[str]) – 要检索的 id 列表。

返回

文档列表。

返回类型

List[Document]

0.2.11 版本新增。

异步地返回使用最大边际相关性选择的文档。

最大边际相关性(Maximal marginal relevance)优化查询的相似性和所选文档之间的多样性。

参数
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 返回的文档数量。默认为 4。

  • fetch_k (int) – 获取以传递给 MMR 算法的文档数量。默认为 20。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • kwargs (Any) –

返回

通过最大边际相关性选择的文档列表。

返回类型

List[Document]

async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document]

异步地返回使用最大边际相关性选择的文档。

最大边际相关性(Maximal marginal relevance)优化查询的相似性和所选文档之间的多样性。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入向量(embedding)。

  • k (int) – 返回的文档数量。默认为 4。

  • fetch_k (int) – 获取以传递给 MMR 算法的文档数量。默认为 20。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

通过最大边际相关性选择的文档列表。

返回类型

List[Document]

as_retriever(**kwargs: Any) VectorStoreRetriever

返回从该 VectorStore 初始化后的 VectorStoreRetriever。

参数

**kwargs (Any) –

传递给搜索函数的关键字参数。可以包括:search_type (Optional[str]):定义 Retriever 应执行的搜索类型。可以是 “similarity”(默认)、“mmr” 或 “similarity_score_threshold”。

Retriever 应该执行的搜索类型。可以是 “similarity”(默认)、“mmr” 或 “similarity_score_threshold”。

search_kwargs (Optional[Dict]):传递给
搜索函数的关键字参数。可以包括如下内容:

k: 返回的文档数量(默认值:4)score_threshold: 相似度评分阈值的最小相关性阈值

对于 similarity_score_threshold

fetch_k: 传递给 MMR 算法的文档数量

(默认值:20)

lambda_mult: MMR 返回结果的多样性;

1 表示最小多样性,0 表示最大多样性。(默认值:0.5)

filter: 按文档元数据筛选

返回

VectorStore 的 Retriever 类。

返回类型

VectorStoreRetriever

示例

# Retrieve more documents with higher diversity
# Useful if your dataset has many similar documents
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 6, 'lambda_mult': 0.25}
)

# Fetch more documents for the MMR algorithm to consider
# But only return the top 5
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 5, 'fetch_k': 50}
)

# Only retrieve documents that have a relevance score
# Above a certain threshold
docsearch.as_retriever(
    search_type="similarity_score_threshold",
    search_kwargs={'score_threshold': 0.8}
)

# Only get the single most similar document from the dataset
docsearch.as_retriever(search_kwargs={'k': 1})

# Use a filter to only retrieve documents from a specific paper
docsearch.as_retriever(
    search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}}
)
async asearch(query: str, search_type: str, **kwargs: Any) List[Document]

异步地返回使用指定搜索类型与查询最相似的文档。

参数
  • query (str) – 输入文本。

  • search_type (str) – 要执行的搜索类型。可以是 “similarity”、“mmr” 或 “similarity_score_threshold”。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

与查询最相似的文档列表。

Raises

ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。

返回类型

List[Document]

异步地返回与查询最相似的文档。

参数
  • query (str) – 输入文本。

  • k (int) – 返回的文档数量。默认为 4。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

与查询最相似的文档列表。

返回类型

List[Document]

async asimilarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document]

异步地返回与嵌入向量最相似的文档。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入向量(embedding)。

  • k (int) – 返回的文档数量。默认为 4。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

与查询向量最相似的文档列表。

返回类型

List[Document]

async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

异步地返回范围在 [0, 1] 内的文档和相关性得分。

0 表示不相似,1 表示最相似。

参数
  • query (str) – 输入文本。

  • k (int) – 返回的文档数量。默认为 4。

  • **kwargs (Any) –

    要传递给相似度搜索的 kwargs。应包括:score_threshold: 可选参数,介于 0 到 1 之间的浮点值,用于

    筛选检索到的文档结果集

返回

(文档,相似度评分)元组的列表

返回类型

List[Tuple[Document, float]]

async asimilarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]]

异步地运行带距离的相似性搜索。

参数
  • *args (Any) – 传递给搜索方法的参数。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

(文档,相似度评分)元组的列表。

返回类型

List[Tuple[Document, float]]

associate(source: str, target: str)[source]

vectorstore 将源短语与目标短语关联起来。当 vectorstore 看到源短语时,它也会考虑与目标短语相关的结果。

参数
  • source (str) – 要与 target 关联的文本。

  • target (str) – 要将 source 关联到的文本。

associate_batch(text_pairs: List[Tuple[str, str]])[source]

给定一批(源,目标)对,向量数据库将每个源短语与相应的目标短语关联起来。

参数
  • text_pairs (List[Tuple[str, str]]) – (source, target) 文本对的列表。对于

  • list (this) –

  • target. (列表中的每对,源文本将与) –

astreaming_upsert(items: AsyncIterable[Document], /, batch_size: int, **kwargs: Any) AsyncIterator[UpsertResponse]

Beta 版本

在 0.2.11 版本中添加。API 可能会发生变化。

以流式方式 Upsert 文档。 streaming_upsert 的异步版本。

参数
  • items (AsyncIterable[Document]) – 要添加到 vectorstore 的 Document 的可迭代对象。

  • batch_size (int) – 每次 upsert 的批次大小。

  • kwargs (Any) – 附加关键字参数。 kwargs 应仅包含所有文档通用的参数。(例如,索引的超时时间、重试策略等)kwargs 不应包含 id 以避免语义不明确。相反,ID 应作为 Document 对象的一部分提供。

Yields

UpsertResponse – 一个响应对象,其中包含已成功在 vectorstore 中添加或更新的 ID 列表,以及未能添加或更新的 ID 列表。

返回类型

AsyncIterator[UpsertResponse]

0.2.11 版本新增。

async aupsert(items: Sequence[Document], /, **kwargs: Any) UpsertResponse

Beta 版本

在 0.2.11 版本中添加。API 可能会发生变化。

在 vectorstore 中添加或更新文档。 upsert 的异步版本。

如果提供了 Document 对象的 ID 字段,则 upsert 功能应使用该字段。如果未提供 ID,则 upsert 方法可以自由地为文档生成 ID。

当指定了 ID 并且文档已存在于 vectorstore 中时,upsert 方法应使用新数据更新文档。如果文档不存在,则 upsert 方法应将文档添加到 vectorstore。

参数
  • items (Sequence[Document]) – 要添加到 vectorstore 的 Document 序列。

  • kwargs (Any) – 额外的关键字参数。

返回

一个响应对象,其中包含已成功在 vectorstore 中添加或更新的 ID 列表,以及未能添加或更新的 ID 列表。

返回类型

UpsertResponse

0.2.11 版本新增。

delete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool]

按向量 ID 或其他标准删除。

参数
  • ids (Optional[List[str]]) – 要删除的 id 列表。如果为 None,则删除全部。默认为 None。

  • **kwargs (Any) – 子类可能使用的其他关键字参数。

返回

如果删除成功,则返回 True,否则返回 False,如果未实现,则返回 None。

返回类型

Optional[bool]

classmethod from_checkpoint(checkpoint: Union[str, Path], thirdai_key: Optional[str] = None)[source]

从保存的检查点创建一个带有基础模型的 NeuralDBVectorStore

要使用,请使用您的 ThirdAI API 密钥设置 THIRDAI_KEY 环境变量,或将 thirdai_key 作为命名参数传递。

示例

from langchain_community.vectorstores import NeuralDBVectorStore

vectorstore = NeuralDBVectorStore.from_checkpoint(
    checkpoint="/path/to/checkpoint.ndb",
    thirdai_key="your-thirdai-key",
)

vectorstore.insert([
    "/path/to/doc.pdf",
    "/path/to/doc.docx",
    "/path/to/doc.csv",
])

documents = vectorstore.similarity_search("AI-driven music therapy")
参数
  • checkpoint (Union[str, Path]) –

  • thirdai_key (Optional[str]) –

classmethod from_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST

从文档和嵌入初始化并返回 VectorStore。

参数
  • documents (List[Document]) – 要添加到向量数据库的文档列表。

  • embedding (Embeddings) – 要使用的嵌入函数。

  • kwargs (Any) – 额外的关键字参数。

返回

从文档和嵌入初始化的 VectorStore。

返回类型

VectorStore

classmethod from_scratch(thirdai_key: Optional[str] = None, **model_kwargs)[source]

从头开始创建一个 NeuralDBVectorStore。

要使用,请使用您的 ThirdAI API 密钥设置 THIRDAI_KEY 环境变量,或将 thirdai_key 作为命名参数传递。

示例

from langchain_community.vectorstores import NeuralDBVectorStore

vectorstore = NeuralDBVectorStore.from_scratch(
    thirdai_key="your-thirdai-key",
)

vectorstore.insert([
    "/path/to/doc.pdf",
    "/path/to/doc.docx",
    "/path/to/doc.csv",
])

documents = vectorstore.similarity_search("AI-driven music therapy")
参数

thirdai_key (Optional[str]) –

classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, **kwargs: Any) NeuralDBVectorStore[source]

从文本和嵌入初始化并返回 VectorStore。

参数
  • texts (List[str]) –

  • embedding (Embeddings) –

  • metadatas (Optional[List[dict]]) –

  • kwargs (Any) –

返回类型

NeuralDBVectorStore

get_by_ids(ids: Sequence[str], /) List[Document]

按 ID 获取文档。

返回的文档应将 ID 字段设置为向量存储中文档的 ID。

如果某些 ID 未找到或存在重复 ID,则返回的文档可能少于请求的文档。

用户不应假设返回文档的顺序与输入 ID 的顺序匹配。相反,用户应依赖返回文档的 ID 字段。

如果某些 ID 未找到文档,此方法不应引发异常。

参数

ids (Sequence[str]) – 要检索的 id 列表。

返回

文档列表。

返回类型

List[Document]

0.2.11 版本新增。

insert(sources: List[Any], train: bool = True, fast_mode: bool = True, **kwargs)[source]

将文件/文档源插入到向量数据库中。

参数
  • train (bool) – 当为 True 时,表示 NeuralDB 中的底层模型将对插入的

  • files. (文件进行无监督预训练) –

  • True. (默认为) –

  • fast_mode (bool) – 更快的插入速度,但性能略有下降。

  • True.

  • sources (List[Any]) –

返回使用最大边际相关性选择的文档。

最大边际相关性(Maximal marginal relevance)优化查询的相似性和所选文档之间的多样性。

参数
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 返回的文档数量。默认为 4。

  • fetch_k (int) – 获取以传递给 MMR 算法的文档数量。默认为 20。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

通过最大边际相关性选择的文档列表。

返回类型

List[Document]

max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document]

返回使用最大边际相关性选择的文档。

最大边际相关性(Maximal marginal relevance)优化查询的相似性和所选文档之间的多样性。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入向量(embedding)。

  • k (int) – 返回的文档数量。默认为 4。

  • fetch_k (int) – 获取以传递给 MMR 算法的文档数量。默认为 20。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

通过最大边际相关性选择的文档列表。

返回类型

List[Document]

save(path: str)[source]

将 NeuralDB 实例保存到磁盘。可以通过调用 NeuralDB.from_checkpoint(path) 加载到内存中

参数

path (str) – 磁盘上用于保存 NeuralDB 实例的路径。

search(query: str, search_type: str, **kwargs: Any) List[Document]

返回使用指定搜索类型与查询最相似的文档。

参数
  • query (str) – 输入文本

  • search_type (str) – 要执行的搜索类型。可以是 “similarity”、“mmr” 或 “similarity_score_threshold”。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

与查询最相似的文档列表。

Raises

ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。

返回类型

List[Document]

检索给定查询的 {k} 个上下文

参数
  • query (str) – 提交给模型的查询

  • k (int) – 要检索的最大上下文结果数。默认为 10。

  • kwargs (Any) –

返回类型

List[Document]

similarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document]

返回与嵌入向量最相似的文档。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入向量(embedding)。

  • k (int) – 返回的文档数量。默认为 4。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

与查询向量最相似的文档列表。

返回类型

List[Document]

similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

返回范围在 [0, 1] 内的文档和相关性得分。

0 表示不相似,1 表示最相似。

参数
  • query (str) – 输入文本。

  • k (int) – 返回的文档数量。默认为 4。

  • **kwargs (Any) –

    要传递给相似度搜索的 kwargs。应包括:score_threshold: 可选参数,介于 0 到 1 之间的浮点值,用于

    过滤检索到的文档结果集。

返回

(文档,相似度评分)元组的列表。

返回类型

List[Tuple[Document, float]]

similarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]]

运行带距离的相似性搜索。

参数
  • *args (Any) – 传递给搜索方法的参数。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

(文档,相似度评分)元组的列表。

返回类型

List[Tuple[Document, float]]

streaming_upsert(items: Iterable[Document], /, batch_size: int, **kwargs: Any) Iterator[UpsertResponse]

Beta 版本

在 0.2.11 版本中添加。API 可能会发生变化。

以流式方式更新文档。

参数
  • items (Iterable[Document]) – 要添加到向量存储的可迭代文档。

  • batch_size (int) – 每次 upsert 的批次大小。

  • kwargs (Any) – 额外的关键字参数。kwargs 应该只包含所有文档通用的参数。(例如,索引的超时时间、重试策略等)kwargs 不应包含 ids 以避免语义不明确。相反,ID 应该作为 Document 对象的一部分提供。

Yields

UpsertResponse – 一个响应对象,其中包含已成功在 vectorstore 中添加或更新的 ID 列表,以及未能添加或更新的 ID 列表。

返回类型

Iterator[UpsertResponse]

0.2.11 版本新增。

upsert(items: Sequence[Document], /, **kwargs: Any) UpsertResponse

Beta 版本

在 0.2.11 版本中添加。API 可能会发生变化。

在向量数据库中添加或更新文档。

如果提供了 Document 对象的 ID 字段,则 upsert 功能应使用该字段。如果未提供 ID,则 upsert 方法可以自由地为文档生成 ID。

当指定了 ID 并且文档已存在于 vectorstore 中时,upsert 方法应使用新数据更新文档。如果文档不存在,则 upsert 方法应将文档添加到 vectorstore。

参数
  • items (Sequence[Document]) – 要添加到 vectorstore 的 Document 序列。

  • kwargs (Any) – 额外的关键字参数。

返回

一个响应对象,其中包含已成功在 vectorstore 中添加或更新的 ID 列表,以及未能添加或更新的 ID 列表。

返回类型

UpsertResponse

0.2.11 版本新增。

upvote(query: str, document_id: Union[int, str])[source]

向量存储会提高特定查询的文档分数。这对于根据用户行为微调向量存储非常有用。

参数
  • query (str) – 与 document_id 关联的文本

  • document_id (Union[int, str]) – 要与查询关联的文档 ID。

upvote_batch(query_id_pairs: List[Tuple[str, int]])[source]

给定一批 (查询, 文档 ID) 对,向量存储会提高相应查询的文档分数。这对于根据用户行为微调向量存储非常有用。

参数
  • query_id_pairs (List[Tuple[str, int]]) – (查询, 文档 ID) 对的列表。对于每对

  • list (this) –

  • query. (模型将提高文档 ID 的权重) –

classmethod validate_environments(values: Dict) Dict[source]

验证 ThirdAI 环境变量。

参数

values (Dict) –

返回类型

Dict

NeuralDBVectorStore 的使用示例