langchain_community.vectorstores.thirdai_neuraldb
.NeuralDBVectorStore¶
- class langchain_community.vectorstores.thirdai_neuraldb.NeuralDBVectorStore(db: Any)[source]¶
使用 ThirdAI’s NeuralDB 的向量数据库。
要使用,您应该安装
thirdai[neural_db]
python 包。示例
from langchain_community.vectorstores import NeuralDBVectorStore from thirdai import neural_db as ndb db = ndb.NeuralDB() vectorstore = NeuralDBVectorStore(db=db)
属性
db
NeuralDB 实例
embeddings
如果可用,访问查询嵌入对象。
方法
__init__
(db)aadd_documents
(documents, **kwargs)异步地通过嵌入运行更多文档并添加到向量数据库。
aadd_texts
(texts[, metadatas])异步地通过嵌入运行更多文本并添加到向量数据库。
add_documents
(documents, **kwargs)在向量数据库中添加或更新文档。
add_texts
(texts[, metadatas])通过嵌入运行更多文本并添加到向量数据库。
adelete
([ids])异步地按向量 ID 或其他标准删除。
afrom_documents
(documents, embedding, **kwargs)异步地从文档和嵌入初始化并返回 VectorStore。
afrom_texts
(texts, embedding[, metadatas])异步地从文本和嵌入初始化并返回 VectorStore。
aget_by_ids
(ids, /)异步地按 ID 获取文档。
amax_marginal_relevance_search
(query[, k, ...])异步地返回使用最大边际相关性选择的文档。
异步地返回使用最大边际相关性选择的文档。
as_retriever
(**kwargs)返回从该 VectorStore 初始化后的 VectorStoreRetriever。
asearch
(query, search_type, **kwargs)异步地返回使用指定搜索类型与查询最相似的文档。
asimilarity_search
(query[, k])异步地返回与查询最相似的文档。
asimilarity_search_by_vector
(embedding[, k])异步地返回与嵌入向量最相似的文档。
异步地返回范围在 [0, 1] 内的文档和相关性得分。
asimilarity_search_with_score
(*args, **kwargs)异步地运行带距离的相似性搜索。
associate
(source, target)向量数据库将源短语与目标短语关联起来。
associate_batch
(text_pairs)给定一批(源,目标)对,向量数据库将每个源短语与相应的目标短语关联起来。
astreaming_upsert
(items, /, batch_size, **kwargs)aupsert
(items, /, **kwargs)delete
([ids])按向量 ID 或其他标准删除。
from_checkpoint
(checkpoint[, thirdai_key])从保存的检查点创建一个带有基础模型的 NeuralDBVectorStore
from_documents
(documents, embedding, **kwargs)从文档和嵌入初始化并返回 VectorStore。
from_scratch
([thirdai_key])从头开始创建一个 NeuralDBVectorStore。
from_texts
(texts, embedding[, metadatas])从文本和嵌入初始化并返回 VectorStore。
get_by_ids
(ids, /)按 ID 获取文档。
insert
(sources[, train, fast_mode])将文件/文档源插入到向量数据库中。
max_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
save
(path)将 NeuralDB 实例保存到磁盘。
search
(query, search_type, **kwargs)返回使用指定搜索类型与查询最相似的文档。
similarity_search
(query[, k])检索给定查询的 {k} 个上下文
similarity_search_by_vector
(embedding[, k])返回与嵌入向量最相似的文档。
返回范围在 [0, 1] 内的文档和相关性得分。
similarity_search_with_score
(*args, **kwargs)运行带距离的相似性搜索。
streaming_upsert
(items, /, batch_size, **kwargs)upsert
(items, /, **kwargs)upvote
(query, document_id)向量数据库提高特定查询的文档得分权重。
upvote_batch
(query_id_pairs)给定一批(查询,文档 id)对,向量数据库提高相应查询的文档得分权重。
validate_environments
(values)验证 ThirdAI 环境变量。
- 参数
db (Any) –
- async aadd_documents(documents: List[Document], **kwargs: Any) List[str]] ¶
异步地通过嵌入运行更多文档并添加到向量数据库。
- 参数
documents (List[Document]) – 要添加到向量数据库的文档列表。
kwargs (Any) – 额外的关键字参数。
- 返回
添加的文本的 ID 列表。
- Raises
ValueError – 如果 ID 数量与文档数量不匹配,则引发 ValueError。
- 返回类型
List[str]
- async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]]] = None, **kwargs: Any) List[str]] ¶
异步地通过嵌入运行更多文本并添加到向量数据库。
- 参数
texts (Iterable[str]) – 要添加到向量数据库的字符串的可迭代对象。
metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。默认为 None。
**kwargs (Any) – 向量数据库特定的参数。
- 返回
从将文本添加到向量数据库中返回的 id 列表。
- Raises
ValueError – 如果元数据的数量与文本的数量不匹配,则引发 ValueError。
ValueError – 如果 id 的数量与文本的数量不匹配,则引发 ValueError。
- 返回类型
List[str]
- add_documents(documents: List[Document], **kwargs: Any) List[str]] ¶
在向量数据库中添加或更新文档。
- 参数
documents (List[Document]) – 要添加到向量数据库的文档列表。
kwargs (Any) – 额外的关键字参数。如果 kwargs 包含 ids 并且 documents 包含 ids,则 kwargs 中的 ids 将优先。
- 返回
添加的文本的 ID 列表。
- Raises
ValueError – 如果 id 数量与文档数量不匹配,则引发 ValueError。
- 返回类型
List[str]
- add_texts(texts: Iterable[str], metadatas: Optional[List[dict]]] = None, **kwargs: Any) List[str]] [source]¶
通过嵌入运行更多文本并添加到向量数据库。
- 参数
texts (Iterable[str]) – 要添加到向量数据库的字符串的可迭代对象。
metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。
kwargs (Any) – 向量数据库特定的参数
- 返回
从将文本添加到向量数据库中返回的 id 列表。
- 返回类型
List[str]
- async adelete(ids: Optional[List[str]]] = None, **kwargs: Any) Optional[bool]] ¶
异步地按向量 ID 或其他标准删除。
- 参数
ids (Optional[List[str]]) – 要删除的 id 列表。如果为 None,则删除全部。默认为 None。
**kwargs (Any) – 子类可能使用的其他关键字参数。
- 返回
如果删除成功,则返回 True,否则返回 False,如果未实现,则返回 None。
- 返回类型
Optional[bool]
- async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST ¶
异步地从文档和嵌入初始化并返回 VectorStore。
- 参数
documents (List[Document]) – 要添加到向量数据库的文档列表。
embedding (Embeddings) – 要使用的嵌入函数。
kwargs (Any) – 额外的关键字参数。
- 返回
从文档和嵌入初始化的 VectorStore。
- 返回类型
- async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]]] = None, **kwargs: Any) VST ¶
异步地从文本和嵌入初始化并返回 VectorStore。
- 参数
texts (List[str]) – 要添加到向量数据库的文本列表。
embedding (Embeddings) – 要使用的嵌入函数。
metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。默认为 None。
kwargs (Any) – 额外的关键字参数。
- 返回
从文本和嵌入初始化的 VectorStore。
- 返回类型
- async aget_by_ids(ids: Sequence[str], /) List[Document]] ¶
异步地按 ID 获取文档。
返回的文档应将 ID 字段设置为向量存储中文档的 ID。
如果某些 ID 未找到或存在重复 ID,则返回的文档可能少于请求的文档。
用户不应假设返回文档的顺序与输入 ID 的顺序匹配。相反,用户应依赖返回文档的 ID 字段。
如果某些 ID 未找到文档,此方法不应引发异常。
- 参数
ids (Sequence[str]) – 要检索的 id 列表。
- 返回
文档列表。
- 返回类型
List[Document]
0.2.11 版本新增。
- async amax_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document] ¶
异步地返回使用最大边际相关性选择的文档。
最大边际相关性(Maximal marginal relevance)优化查询的相似性和所选文档之间的多样性。
- 参数
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为 4。
fetch_k (int) – 获取以传递给 MMR 算法的文档数量。默认为 20。
lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。
kwargs (Any) –
- 返回
通过最大边际相关性选择的文档列表。
- 返回类型
List[Document]
- async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document] ¶
异步地返回使用最大边际相关性选择的文档。
最大边际相关性(Maximal marginal relevance)优化查询的相似性和所选文档之间的多样性。
- 参数
embedding (List[float]) – 用于查找相似文档的嵌入向量(embedding)。
k (int) – 返回的文档数量。默认为 4。
fetch_k (int) – 获取以传递给 MMR 算法的文档数量。默认为 20。
lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。
**kwargs (Any) – 传递给搜索方法的参数。
- 返回
通过最大边际相关性选择的文档列表。
- 返回类型
List[Document]
- as_retriever(**kwargs: Any) VectorStoreRetriever ¶
返回从该 VectorStore 初始化后的 VectorStoreRetriever。
- 参数
**kwargs (Any) –
传递给搜索函数的关键字参数。可以包括:search_type (Optional[str]):定义 Retriever 应执行的搜索类型。可以是 “similarity”(默认)、“mmr” 或 “similarity_score_threshold”。
Retriever 应该执行的搜索类型。可以是 “similarity”(默认)、“mmr” 或 “similarity_score_threshold”。
- search_kwargs (Optional[Dict]):传递给
- 搜索函数的关键字参数。可以包括如下内容:
k: 返回的文档数量(默认值:4)score_threshold: 相似度评分阈值的最小相关性阈值
对于 similarity_score_threshold
- fetch_k: 传递给 MMR 算法的文档数量
(默认值:20)
- lambda_mult: MMR 返回结果的多样性;
1 表示最小多样性,0 表示最大多样性。(默认值:0.5)
filter: 按文档元数据筛选
- 返回
VectorStore 的 Retriever 类。
- 返回类型
示例
# Retrieve more documents with higher diversity # Useful if your dataset has many similar documents docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 6, 'lambda_mult': 0.25} ) # Fetch more documents for the MMR algorithm to consider # But only return the top 5 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 5, 'fetch_k': 50} ) # Only retrieve documents that have a relevance score # Above a certain threshold docsearch.as_retriever( search_type="similarity_score_threshold", search_kwargs={'score_threshold': 0.8} ) # Only get the single most similar document from the dataset docsearch.as_retriever(search_kwargs={'k': 1}) # Use a filter to only retrieve documents from a specific paper docsearch.as_retriever( search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}} )
- async asearch(query: str, search_type: str, **kwargs: Any) List[Document] ¶
异步地返回使用指定搜索类型与查询最相似的文档。
- 参数
query (str) – 输入文本。
search_type (str) – 要执行的搜索类型。可以是 “similarity”、“mmr” 或 “similarity_score_threshold”。
**kwargs (Any) – 传递给搜索方法的参数。
- 返回
与查询最相似的文档列表。
- Raises
ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。
- 返回类型
List[Document]
- async asimilarity_search(query: str, k: int = 4, **kwargs: Any) List[Document] ¶
异步地返回与查询最相似的文档。
- 参数
query (str) – 输入文本。
k (int) – 返回的文档数量。默认为 4。
**kwargs (Any) – 传递给搜索方法的参数。
- 返回
与查询最相似的文档列表。
- 返回类型
List[Document]
- async asimilarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document] ¶
异步地返回与嵌入向量最相似的文档。
- 参数
embedding (List[float]) – 用于查找相似文档的嵌入向量(embedding)。
k (int) – 返回的文档数量。默认为 4。
**kwargs (Any) – 传递给搜索方法的参数。
- 返回
与查询向量最相似的文档列表。
- 返回类型
List[Document]
- async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]] ¶
异步地返回范围在 [0, 1] 内的文档和相关性得分。
0 表示不相似,1 表示最相似。
- 参数
query (str) – 输入文本。
k (int) – 返回的文档数量。默认为 4。
**kwargs (Any) –
要传递给相似度搜索的 kwargs。应包括:score_threshold: 可选参数,介于 0 到 1 之间的浮点值,用于
筛选检索到的文档结果集
- 返回
(文档,相似度评分)元组的列表
- 返回类型
List[Tuple[Document, float]]
- async asimilarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]] ¶
异步地运行带距离的相似性搜索。
- 参数
*args (Any) – 传递给搜索方法的参数。
**kwargs (Any) – 传递给搜索方法的参数。
- 返回
(文档,相似度评分)元组的列表。
- 返回类型
List[Tuple[Document, float]]
- associate(source: str, target: str)[source]¶
vectorstore 将源短语与目标短语关联起来。当 vectorstore 看到源短语时,它也会考虑与目标短语相关的结果。
- 参数
source (str) – 要与 target 关联的文本。
target (str) – 要将 source 关联到的文本。
- associate_batch(text_pairs: List[Tuple[str, str]])[source]¶
给定一批(源,目标)对,向量数据库将每个源短语与相应的目标短语关联起来。
- 参数
text_pairs (List[Tuple[str, str]]) – (source, target) 文本对的列表。对于
list (this) –
target. (列表中的每对,源文本将与) –
- astreaming_upsert(items: AsyncIterable[Document], /, batch_size: int, **kwargs: Any) AsyncIterator[UpsertResponse] ¶
Beta 版本
在 0.2.11 版本中添加。API 可能会发生变化。
以流式方式 Upsert 文档。 streaming_upsert 的异步版本。
- 参数
items (AsyncIterable[Document]) – 要添加到 vectorstore 的 Document 的可迭代对象。
batch_size (int) – 每次 upsert 的批次大小。
kwargs (Any) – 附加关键字参数。 kwargs 应仅包含所有文档通用的参数。(例如,索引的超时时间、重试策略等)kwargs 不应包含 id 以避免语义不明确。相反,ID 应作为 Document 对象的一部分提供。
- Yields
UpsertResponse – 一个响应对象,其中包含已成功在 vectorstore 中添加或更新的 ID 列表,以及未能添加或更新的 ID 列表。
- 返回类型
AsyncIterator[UpsertResponse]
0.2.11 版本新增。
- async aupsert(items: Sequence[Document], /, **kwargs: Any) UpsertResponse ¶
Beta 版本
在 0.2.11 版本中添加。API 可能会发生变化。
在 vectorstore 中添加或更新文档。 upsert 的异步版本。
如果提供了 Document 对象的 ID 字段,则 upsert 功能应使用该字段。如果未提供 ID,则 upsert 方法可以自由地为文档生成 ID。
当指定了 ID 并且文档已存在于 vectorstore 中时,upsert 方法应使用新数据更新文档。如果文档不存在,则 upsert 方法应将文档添加到 vectorstore。
- 参数
items (Sequence[Document]) – 要添加到 vectorstore 的 Document 序列。
kwargs (Any) – 额外的关键字参数。
- 返回
一个响应对象,其中包含已成功在 vectorstore 中添加或更新的 ID 列表,以及未能添加或更新的 ID 列表。
- 返回类型
0.2.11 版本新增。
- delete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool] ¶
按向量 ID 或其他标准删除。
- 参数
ids (Optional[List[str]]) – 要删除的 id 列表。如果为 None,则删除全部。默认为 None。
**kwargs (Any) – 子类可能使用的其他关键字参数。
- 返回
如果删除成功,则返回 True,否则返回 False,如果未实现,则返回 None。
- 返回类型
Optional[bool]
- classmethod from_checkpoint(checkpoint: Union[str, Path], thirdai_key: Optional[str] = None)[source]¶
从保存的检查点创建一个带有基础模型的 NeuralDBVectorStore
要使用,请使用您的 ThirdAI API 密钥设置
THIRDAI_KEY
环境变量,或将thirdai_key
作为命名参数传递。示例
from langchain_community.vectorstores import NeuralDBVectorStore vectorstore = NeuralDBVectorStore.from_checkpoint( checkpoint="/path/to/checkpoint.ndb", thirdai_key="your-thirdai-key", ) vectorstore.insert([ "/path/to/doc.pdf", "/path/to/doc.docx", "/path/to/doc.csv", ]) documents = vectorstore.similarity_search("AI-driven music therapy")
- 参数
checkpoint (Union[str, Path]) –
thirdai_key (Optional[str]) –
- classmethod from_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST ¶
从文档和嵌入初始化并返回 VectorStore。
- 参数
documents (List[Document]) – 要添加到向量数据库的文档列表。
embedding (Embeddings) – 要使用的嵌入函数。
kwargs (Any) – 额外的关键字参数。
- 返回
从文档和嵌入初始化的 VectorStore。
- 返回类型
- classmethod from_scratch(thirdai_key: Optional[str] = None, **model_kwargs)[source]¶
从头开始创建一个 NeuralDBVectorStore。
要使用,请使用您的 ThirdAI API 密钥设置
THIRDAI_KEY
环境变量,或将thirdai_key
作为命名参数传递。示例
from langchain_community.vectorstores import NeuralDBVectorStore vectorstore = NeuralDBVectorStore.from_scratch( thirdai_key="your-thirdai-key", ) vectorstore.insert([ "/path/to/doc.pdf", "/path/to/doc.docx", "/path/to/doc.csv", ]) documents = vectorstore.similarity_search("AI-driven music therapy")
- 参数
thirdai_key (Optional[str]) –
- classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, **kwargs: Any) NeuralDBVectorStore [source]¶
从文本和嵌入初始化并返回 VectorStore。
- 参数
texts (List[str]) –
embedding (Embeddings) –
metadatas (Optional[List[dict]]) –
kwargs (Any) –
- 返回类型
- get_by_ids(ids: Sequence[str], /) List[Document] ¶
按 ID 获取文档。
返回的文档应将 ID 字段设置为向量存储中文档的 ID。
如果某些 ID 未找到或存在重复 ID,则返回的文档可能少于请求的文档。
用户不应假设返回文档的顺序与输入 ID 的顺序匹配。相反,用户应依赖返回文档的 ID 字段。
如果某些 ID 未找到文档,此方法不应引发异常。
- 参数
ids (Sequence[str]) – 要检索的 id 列表。
- 返回
文档列表。
- 返回类型
List[Document]
0.2.11 版本新增。
- insert(sources: List[Any], train: bool = True, fast_mode: bool = True, **kwargs)[source]¶
将文件/文档源插入到向量数据库中。
- 参数
train (bool) – 当为 True 时,表示 NeuralDB 中的底层模型将对插入的
files. (文件进行无监督预训练) –
True. (默认为) –
fast_mode (bool) – 更快的插入速度,但性能略有下降。
True. –
sources (List[Any]) –
- max_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document] ¶
返回使用最大边际相关性选择的文档。
最大边际相关性(Maximal marginal relevance)优化查询的相似性和所选文档之间的多样性。
- 参数
query (str) – 用于查找相似文档的文本。
k (int) – 返回的文档数量。默认为 4。
fetch_k (int) – 获取以传递给 MMR 算法的文档数量。默认为 20。
lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。
**kwargs (Any) – 传递给搜索方法的参数。
- 返回
通过最大边际相关性选择的文档列表。
- 返回类型
List[Document]
- max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document] ¶
返回使用最大边际相关性选择的文档。
最大边际相关性(Maximal marginal relevance)优化查询的相似性和所选文档之间的多样性。
- 参数
embedding (List[float]) – 用于查找相似文档的嵌入向量(embedding)。
k (int) – 返回的文档数量。默认为 4。
fetch_k (int) – 获取以传递给 MMR 算法的文档数量。默认为 20。
lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。
**kwargs (Any) – 传递给搜索方法的参数。
- 返回
通过最大边际相关性选择的文档列表。
- 返回类型
List[Document]
- save(path: str)[source]¶
将 NeuralDB 实例保存到磁盘。可以通过调用 NeuralDB.from_checkpoint(path) 加载到内存中
- 参数
path (str) – 磁盘上用于保存 NeuralDB 实例的路径。
- search(query: str, search_type: str, **kwargs: Any) List[Document] ¶
返回使用指定搜索类型与查询最相似的文档。
- 参数
query (str) – 输入文本
search_type (str) – 要执行的搜索类型。可以是 “similarity”、“mmr” 或 “similarity_score_threshold”。
**kwargs (Any) – 传递给搜索方法的参数。
- 返回
与查询最相似的文档列表。
- Raises
ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。
- 返回类型
List[Document]
- similarity_search(query: str, k: int = 10, **kwargs: Any) List[Document] [source]¶
检索给定查询的 {k} 个上下文
- 参数
query (str) – 提交给模型的查询
k (int) – 要检索的最大上下文结果数。默认为 10。
kwargs (Any) –
- 返回类型
List[Document]
- similarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document] ¶
返回与嵌入向量最相似的文档。
- 参数
embedding (List[float]) – 用于查找相似文档的嵌入向量(embedding)。
k (int) – 返回的文档数量。默认为 4。
**kwargs (Any) – 传递给搜索方法的参数。
- 返回
与查询向量最相似的文档列表。
- 返回类型
List[Document]
- similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]] ¶
返回范围在 [0, 1] 内的文档和相关性得分。
0 表示不相似,1 表示最相似。
- 参数
query (str) – 输入文本。
k (int) – 返回的文档数量。默认为 4。
**kwargs (Any) –
要传递给相似度搜索的 kwargs。应包括:score_threshold: 可选参数,介于 0 到 1 之间的浮点值,用于
过滤检索到的文档结果集。
- 返回
(文档,相似度评分)元组的列表。
- 返回类型
List[Tuple[Document, float]]
- similarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]] ¶
运行带距离的相似性搜索。
- 参数
*args (Any) – 传递给搜索方法的参数。
**kwargs (Any) – 传递给搜索方法的参数。
- 返回
(文档,相似度评分)元组的列表。
- 返回类型
List[Tuple[Document, float]]
- streaming_upsert(items: Iterable[Document], /, batch_size: int, **kwargs: Any) Iterator[UpsertResponse] ¶
Beta 版本
在 0.2.11 版本中添加。API 可能会发生变化。
以流式方式更新文档。
- 参数
items (Iterable[Document]) – 要添加到向量存储的可迭代文档。
batch_size (int) – 每次 upsert 的批次大小。
kwargs (Any) – 额外的关键字参数。kwargs 应该只包含所有文档通用的参数。(例如,索引的超时时间、重试策略等)kwargs 不应包含 ids 以避免语义不明确。相反,ID 应该作为 Document 对象的一部分提供。
- Yields
UpsertResponse – 一个响应对象,其中包含已成功在 vectorstore 中添加或更新的 ID 列表,以及未能添加或更新的 ID 列表。
- 返回类型
Iterator[UpsertResponse]
0.2.11 版本新增。
- upsert(items: Sequence[Document], /, **kwargs: Any) UpsertResponse ¶
Beta 版本
在 0.2.11 版本中添加。API 可能会发生变化。
在向量数据库中添加或更新文档。
如果提供了 Document 对象的 ID 字段,则 upsert 功能应使用该字段。如果未提供 ID,则 upsert 方法可以自由地为文档生成 ID。
当指定了 ID 并且文档已存在于 vectorstore 中时,upsert 方法应使用新数据更新文档。如果文档不存在,则 upsert 方法应将文档添加到 vectorstore。
- 参数
items (Sequence[Document]) – 要添加到 vectorstore 的 Document 序列。
kwargs (Any) – 额外的关键字参数。
- 返回
一个响应对象,其中包含已成功在 vectorstore 中添加或更新的 ID 列表,以及未能添加或更新的 ID 列表。
- 返回类型
0.2.11 版本新增。
- upvote(query: str, document_id: Union[int, str])[source]¶
向量存储会提高特定查询的文档分数。这对于根据用户行为微调向量存储非常有用。
- 参数
query (str) – 与 document_id 关联的文本
document_id (Union[int, str]) – 要与查询关联的文档 ID。