langchain_couchbase.cache.CouchbaseSemanticCache

class langchain_couchbase.cache.CouchbaseSemanticCache(cluster: Cluster, embedding: Embeddings, bucket_name: str, scope_name: str, collection_name: str, index_name: str, score_threshold: Optional[float] = None)[source]

Couchbase 语义缓存,由支持向量存储的 Couchbase 服务器提供支持的缓存

初始化 Couchbase LLM 缓存 :param cluster: 具有活动连接的 Couchbase 集群对象。 :type cluster: Cluster :param embedding: 要使用的嵌入模型。 :type embedding: Embeddings :param bucket_name: 用于存储文档的 Bucket 名称。 :type bucket_name: str :param scope_name: 用于存储文档的 Bucket 中的 Scope 名称。 :type scope_name: str :param collection_name: 用于存储文档的 Scope 中的 Collection 名称

文档。

参数
  • index_name (str) – 要使用的搜索索引的名称。

  • score_threshold (float) – 用于过滤结果的分数阈值。

  • cluster (Cluster) –

  • embedding (Embeddings) –

  • bucket_name (str) –

  • scope_name (str) –

  • collection_name (str) –

属性

默认批量大小

LLM

返回值

embeddings

返回查询嵌入对象。

方法

__init__(cluster, embedding, bucket_name, ...)

初始化 Couchbase LLM 缓存 :param cluster: 具有活动连接的 Couchbase 集群对象。 :type cluster: Cluster :param embedding: 要使用的嵌入模型。 :type embedding: Embeddings :param bucket_name: 用于存储文档的 Bucket 名称。 :type bucket_name: str :param scope_name: 用于存储文档的 Bucket 中的 Scope 名称。 :type scope_name: str :param collection_name: 用于存储文档的 Scope 中的 Collection 名称。 :type collection_name: str :param index_name: 要使用的搜索索引的名称。 :type index_name: str :param score_threshold: 用于过滤结果的分数阈值。 :type score_threshold: float。

aadd_documents(documents, **kwargs)

异步地通过嵌入模型运行更多文档,并添加到向量存储中。

aadd_texts(texts[, metadatas])

异步地通过嵌入模型运行更多文本,并添加到向量存储中。

aclear(**kwargs)

异步清除缓存,可以接受额外的关键字参数。

add_documents(documents, **kwargs)

在向量存储中添加或更新文档。

add_texts(texts[, metadatas, ids, batch_size])

通过嵌入模型运行文本,并持久化到向量存储中。

adelete([ids])

异步地通过向量 ID 或其他条件删除。

afrom_documents(documents, embedding, **kwargs)

异步地返回从文档和嵌入模型初始化的向量存储。

afrom_texts(texts, embedding[, metadatas])

异步地返回从文本和嵌入模型初始化的向量存储。

aget_by_ids(ids, /)

异步地通过 ID 获取文档。

alookup(prompt, llm_string)

基于提示词和 llm_string 进行异步查找。

amax_marginal_relevance_search(query[, k, ...])

异步地返回使用最大边际相关性选择的文档。

amax_marginal_relevance_search_by_vector(...)

异步地返回使用最大边际相关性选择的文档。

as_retriever(**kwargs)

返回从该向量存储初始化的 VectorStoreRetriever。

asearch(query, search_type, **kwargs)

异步地返回使用指定搜索类型与查询最相似的文档。

asimilarity_search(query[, k])

异步地返回与查询最相似的文档。

asimilarity_search_by_vector(embedding[, k])

异步地返回与嵌入向量最相似的文档。

asimilarity_search_with_relevance_scores(query)

异步地返回文档和相关性评分,评分范围为 [0, 1]。

asimilarity_search_with_score(*args, **kwargs)

异步运行相似性搜索,并返回距离。

astreaming_upsert(items, /, batch_size, **kwargs)

aupdate(prompt, llm_string, return_val)

基于提示词和 llm_string 异步更新缓存。

aupsert(items, /, **kwargs)

clear(**kwargs)

清除缓存。

delete([ids])

通过 ID 从向量存储中删除文档。

from_documents(documents, embedding, **kwargs)

返回从文档和嵌入模型初始化的向量存储。

from_texts(texts, embedding[, metadatas])

从文本列表构建 Couchbase 向量存储。

get_by_ids(ids, /)

通过 ID 获取文档。

lookup(prompt, llm_string)

基于提示词的语义相似性从缓存中查找

max_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

max_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。

search(query, search_type, **kwargs)

返回使用指定搜索类型与查询最相似的文档。

similarity_search(query[, k, search_options])

返回与嵌入向量最相似的文档及其分数。

similarity_search_by_vector(embedding[, k, ...])

返回与向量嵌入最相似的文档。

similarity_search_with_relevance_scores(query)

返回文档和相关性评分,评分范围为 [0, 1]。

similarity_search_with_score(query[, k, ...])

返回与查询最相似的文档及其分数。

similarity_search_with_score_by_vector(embedding)

返回与嵌入向量最相似的文档及其分数。

streaming_upsert(items, /, batch_size, **kwargs)

update(prompt, llm_string, return_val)

基于提示词和 llm_string 更新缓存

upsert(items, /, **kwargs)

__init__(cluster: Cluster, embedding: Embeddings, bucket_name: str, scope_name: str, collection_name: str, index_name: str, score_threshold: Optional[float] = None) None[source]

初始化 Couchbase LLM 缓存 :param cluster: 具有活动连接的 Couchbase 集群对象。 :type cluster: Cluster :param embedding: 要使用的嵌入模型。 :type embedding: Embeddings :param bucket_name: 用于存储文档的 Bucket 名称。 :type bucket_name: str :param scope_name: 用于存储文档的 Bucket 中的 Scope 名称。 :type scope_name: str :param collection_name: 用于存储文档的 Scope 中的 Collection 名称

文档。

参数
  • index_name (str) – 要使用的搜索索引的名称。

  • score_threshold (float) – 用于过滤结果的分数阈值。

  • cluster (Cluster) –

  • embedding (Embeddings) –

  • bucket_name (str) –

  • scope_name (str) –

  • collection_name (str) –

返回类型

async aadd_documents(documents: List[Document], **kwargs: Any) List[]str]

异步地通过嵌入模型运行更多文档,并添加到向量存储中。

参数
  • documents (List[Document]) – 要添加到向量存储的文档。

  • kwargs (Any) – 额外的关键字参数。

返回

添加的文本的 ID 列表。

抛出

ValueError – 如果 ID 数量与文档数量不匹配。

返回类型

List[str]

async aadd_texts(texts: Iterable[str], metadatas: Optional[List[]dict]] = None, **kwargs: Any) List[]str]

异步地通过嵌入模型运行更多文本,并添加到向量存储中。

参数
  • texts (Iterable[str]) – 要添加到向量存储的字符串的可迭代对象。

  • metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。 默认为 None。

  • **kwargs (Any) – 向量存储特定的参数。

返回

从将文本添加到向量存储中获得的 ID 列表。

抛出
  • ValueError – 如果元数据数量与文本数量不匹配。

  • ValueError – 如果 ID 数量与文本数量不匹配。

返回类型

List[str]

async aclear(**kwargs: Any) None

异步清除缓存,可以接受额外的关键字参数。

参数

kwargs (Any) –

返回类型

add_documents(documents: List[Document], **kwargs: Any) List[]str]

在向量存储中添加或更新文档。

参数
  • documents (List[Document]) – 要添加到向量存储的文档。

  • kwargs (Any) – 额外的关键字参数。 如果 kwargs 包含 ids 并且文档包含 ids,则 kwargs 中的 ids 将优先。

返回

添加的文本的 ID 列表。

抛出

ValueError – 如果 ID 数量与文档数量不匹配。

返回类型

List[str]

add_texts(texts: Iterable[str], metadatas: Optional[List[]dict]] = None, ids: Optional[List[]str]] = None, batch_size: Optional[int] = None, **kwargs: Any) List[]str]

通过嵌入模型运行文本,并持久化到向量存储中。

如果传递了文档 ID,则现有文档(如果有)将被新文档覆盖。

参数
  • texts (Iterable[str]) – 要添加到向量存储的字符串的可迭代对象。

  • metadatas (Optional[List[Dict]]) – 与文本关联的可选元数据列表。

  • ids (Optional[List[str]]) – 与文本关联的可选 ID 列表。 ID 必须是整个集合中唯一的字符串。 如果未指定,则会生成 uuid 并用作 id。

  • batch_size (Optional[int]) – 用于批量插入的可选批量大小。 默认为 100。

  • kwargs (Any) –

返回

从将文本添加到向量存储中获得的 ID 列表。

返回类型

List[str]

async adelete(ids: Optional[List[]str]] = None, **kwargs: Any) Optional[]bool]

异步地通过向量 ID 或其他条件删除。

参数
  • ids (Optional[List[str]]) – 要删除的 ID 列表。 如果为 None,则删除全部。 默认为 None。

  • **kwargs (Any) – 子类可能使用的其他关键字参数。

返回

如果删除成功,则为 True,否则为 False,如果未实现,则为 None。

返回类型

Optional[bool]

async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST

异步地返回从文档和嵌入模型初始化的向量存储。

参数
  • documents (List[Document]) – 要添加到向量数据库的文档列表。

  • embedding (Embeddings) – 要使用的嵌入函数。

  • kwargs (Any) – 额外的关键字参数。

返回

从文档和嵌入初始化的向量数据库。

返回类型

向量数据库

async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, **kwargs: Any) VST

异步地返回从文本和嵌入模型初始化的向量存储。

参数
  • texts (List[str]) – 要添加到向量数据库的文本列表。

  • embedding (Embeddings) – 要使用的嵌入函数。

  • metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。 默认为 None。

  • kwargs (Any) – 额外的关键字参数。

返回

从文本和嵌入初始化的向量数据库。

返回类型

向量数据库

async aget_by_ids(ids: Sequence[str], /) List[Document]

异步地通过 ID 获取文档。

返回的文档应将其 ID 字段设置为向量存储中文档的 ID。

如果某些 ID 未找到或存在重复 ID,则返回的文档可能少于请求的数量。

用户不应假设返回文档的顺序与输入 ID 的顺序匹配。相反,用户应依赖返回文档的 ID 字段。

如果某些 ID 没有找到文档,此方法 不应 引发异常。

参数

ids (Sequence[str]) – 要检索的 ID 列表。

返回

文档列表。

返回类型

List[Document]

0.2.11 版本新增。

async alookup(prompt: str, llm_string: str) Optional[Sequence[Generation]]

基于提示词和 llm_string 进行异步查找。

缓存实现应从 prompt 和 llm_string 的 2 元组生成键(例如,通过使用分隔符连接它们)。

参数
  • prompt (str) – prompt 的字符串表示形式。在 Chat 模型的情况下,prompt 是 prompt 到语言模型的非平凡序列化。

  • llm_string (str) – LLM 配置的字符串表示形式。这用于捕获 LLM 的调用参数(例如,模型名称、温度、停止 tokens、最大 tokens 等)。这些调用参数被序列化为字符串表示形式。

返回

在缓存未命中时,返回 None。在缓存命中时,返回缓存值。缓存值是 Generations(或子类)的列表。

返回类型

Optional[Sequence[Generation]]

异步地返回使用最大边际相关性选择的文档。

最大边际相关性优化查询的相似性 所选文档之间的多样性。

参数
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • fetch_k (int) – 要获取并传递给 MMR 算法的文档数量。默认为 20。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • kwargs (Any) –

返回

通过最大边际相关性选择的文档列表。

返回类型

List[Document]

async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document]

异步地返回使用最大边际相关性选择的文档。

最大边际相关性优化查询的相似性 所选文档之间的多样性。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入向量。

  • k (int) – 要返回的文档数量。默认为 4。

  • fetch_k (int) – 要获取并传递给 MMR 算法的文档数量。默认为 20。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

通过最大边际相关性选择的文档列表。

返回类型

List[Document]

as_retriever(**kwargs: Any) VectorStoreRetriever

返回从该向量存储初始化的 VectorStoreRetriever。

参数

**kwargs (Any) –

传递给搜索函数的关键字参数。可以包括:search_type (Optional[str]): 定义检索器应执行的搜索类型。

可以是 “similarity”(默认),“mmr” 或 “similarity_score_threshold”。

search_kwargs (Optional[Dict]): 传递给搜索函数的关键字参数。
可以包括如下内容

k: 要返回的文档数量 (默认: 4) score_threshold: 最低相关性阈值

用于 similarity_score_threshold

fetch_k: 要传递给 MMR 算法的文档数量

(默认: 20)

lambda_mult: MMR 返回结果的多样性;

1 表示最小多样性,0 表示最大多样性。(默认: 0.5)

filter: 按文档元数据过滤

返回

VectorStore 的检索器类。

返回类型

向量数据库检索器

示例

# Retrieve more documents with higher diversity
# Useful if your dataset has many similar documents
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 6, 'lambda_mult': 0.25}
)

# Fetch more documents for the MMR algorithm to consider
# But only return the top 5
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 5, 'fetch_k': 50}
)

# Only retrieve documents that have a relevance score
# Above a certain threshold
docsearch.as_retriever(
    search_type="similarity_score_threshold",
    search_kwargs={'score_threshold': 0.8}
)

# Only get the single most similar document from the dataset
docsearch.as_retriever(search_kwargs={'k': 1})

# Use a filter to only retrieve documents from a specific paper
docsearch.as_retriever(
    search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}}
)
async asearch(query: str, search_type: str, **kwargs: Any) List[Document]

异步地返回使用指定搜索类型与查询最相似的文档。

参数
  • query (str) – 输入文本。

  • search_type (str) – 要执行的搜索类型。可以是 “similarity”、“mmr” 或 “similarity_score_threshold”。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

与查询最相似的文档列表。

抛出

ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。

返回类型

List[Document]

异步地返回与查询最相似的文档。

参数
  • query (str) – 输入文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

与查询最相似的文档列表。

返回类型

List[Document]

async asimilarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document]

异步地返回与嵌入向量最相似的文档。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入向量。

  • k (int) – 要返回的文档数量。默认为 4。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

与查询向量最相似的文档列表。

返回类型

List[Document]

async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

异步地返回文档和相关性评分,评分范围为 [0, 1]。

0 表示不相似,1 表示最相似。

参数
  • query (str) – 输入文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • **kwargs (Any) –

    要传递给相似性搜索的 kwargs。应包括:score_threshold:可选,介于 0 到 1 之间的浮点值,用于

    过滤检索到的文档结果集

返回

(文档, 相似度分数) 元组列表

返回类型

List[Tuple[Document, float]]

async asimilarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]]

异步运行相似性搜索,并返回距离。

参数
  • *args (Any) – 传递给搜索方法的参数。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

(文档, 相似度分数) 元组列表。

返回类型

List[Tuple[Document, float]]

astreaming_upsert(items: AsyncIterable[Document], /, batch_size: int, **kwargs: Any) AsyncIterator[UpsertResponse]

Beta

在 0.2.11 版本中添加。API 可能会发生变化。

以流式方式进行文档的 Upsert 操作。streaming_upsert 的异步版本。

参数
  • items (AsyncIterable[Document]) – 要添加到向量数据库的文档的可迭代对象。

  • batch_size (int) – 每次 upsert 批处理的大小。

  • kwargs (Any) – 附加关键字参数。kwargs 应仅包含所有文档通用的参数。(例如,索引超时,重试策略等)kwargs 不应包含 ids 以避免语义模糊。相反,ID 应作为 Document 对象的一部分提供。

产生

UpsertResponse – 响应对象,其中包含向量数据库中成功添加或更新的 ID 列表以及未能添加或更新的 ID 列表。

返回类型

AsyncIterator[UpsertResponse]

0.2.11 版本新增。

async aupdate(prompt: str, llm_string: str, return_val: Sequence[Generation]) None

基于提示词和 llm_string 异步更新缓存。

prompt 和 llm_string 用于为缓存生成键。该键应与查找方法的键匹配。

参数
  • prompt (str) – prompt 的字符串表示形式。在 Chat 模型的情况下,prompt 是 prompt 到语言模型的非平凡序列化。

  • llm_string (str) – LLM 配置的字符串表示形式。这用于捕获 LLM 的调用参数(例如,模型名称、温度、停止 tokens、最大 tokens 等)。这些调用参数被序列化为字符串表示形式。

  • return_val (Sequence[Generation]) – 要缓存的值。该值是 Generations(或子类)的列表。

返回类型

async aupsert(items: Sequence[Document], /, **kwargs: Any) UpsertResponse

Beta

在 0.2.11 版本中添加。API 可能会发生变化。

在向量数据库中添加或更新文档。upsert 的异步版本。

如果提供了 Document 对象的 ID 字段,则 upsert 功能应使用该字段。如果未提供 ID,则 upsert 方法可以自由地为文档生成 ID。

当指定 ID 且文档已存在于向量数据库中时,upsert 方法应使用新数据更新文档。如果文档不存在,则 upsert 方法应将文档添加到向量数据库。

参数
  • items (Sequence[Document]) – 要添加到向量数据库的文档序列。

  • kwargs (Any) – 额外的关键字参数。

返回

一个响应对象,其中包含向量数据库中成功添加或更新的 ID 列表以及未能添加或更新的 ID 列表。

返回类型

UpsertResponse

0.2.11 版本新增。

clear(**kwargs: Any) None[source]

清除缓存。这将删除集合中的所有文档。这需要在集合上建立索引。

参数

kwargs (Any) –

返回类型

delete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool]

通过 ID 从向量存储中删除文档。

参数
  • ids (List[str]) – 要删除的文档的 ID 列表。

  • batch_size (Optional[int]) – 用于批量删除的可选批处理大小。

  • kwargs (Any) –

返回

如果所有文档都成功删除,则为 True,否则为 False。

返回类型

bool

classmethod from_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST

返回从文档和嵌入模型初始化的向量存储。

参数
  • documents (List[Document]) – 要添加到向量数据库的文档列表。

  • embedding (Embeddings) – 要使用的嵌入函数。

  • kwargs (Any) – 额外的关键字参数。

返回

从文档和嵌入初始化的向量数据库。

返回类型

向量数据库

classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, **kwargs: Any) CouchbaseVectorStore

从文本列表构建 Couchbase 向量存储。

示例


from langchain_couchbase import CouchbaseVectorStore from langchain_openai import OpenAIEmbeddings

from couchbase.cluster import Cluster from couchbase.auth import PasswordAuthenticator from couchbase.options import ClusterOptions from datetime import timedelta

auth = PasswordAuthenticator(username, password) options = ClusterOptions(auth) connect_string = “couchbases://localhost” cluster = Cluster(connect_string, options)

# 等待集群准备就绪以供使用。 cluster.wait_until_ready(timedelta(seconds=5))

embeddings = OpenAIEmbeddings()

texts = [“hello”, “world”]

vectorstore = CouchbaseVectorStore.from_texts(

texts, embedding=embeddings, cluster=cluster, bucket_name=””, scope_name=””, collection_name=””, index_name=”vector-index”,

)

参数
  • texts (List[str]) – 要添加到向量存储的文本列表。

  • embedding (Embeddings) – 要使用的嵌入函数。

  • metadatas (optional[List[Dict]) – 要添加到文档的元数据列表。

  • **kwargs – 用于初始化向量存储和/或传递给 add_texts 方法的关键字参数。查看构造函数和/或 add_texts 以获取接受的参数列表。

返回

一个 Couchbase 向量存储。

返回类型

CouchbaseVectorStore

get_by_ids(ids: Sequence[str], /) List[Document]

通过 ID 获取文档。

返回的文档应将其 ID 字段设置为向量存储中文档的 ID。

如果某些 ID 未找到或存在重复 ID,则返回的文档可能少于请求的数量。

用户不应假设返回文档的顺序与输入 ID 的顺序匹配。相反,用户应依赖返回文档的 ID 字段。

如果某些 ID 没有找到文档,此方法 不应 引发异常。

参数

ids (Sequence[str]) – 要检索的 ID 列表。

返回

文档列表。

返回类型

List[Document]

0.2.11 版本新增。

lookup(prompt: str, llm_string: str) Optional[Sequence[Generation]][source]

基于提示词的语义相似性从缓存中查找

参数
  • prompt (str) –

  • llm_string (str) –

返回类型

Optional[Sequence[Generation]]

返回使用最大边际相关性选择的文档。

最大边际相关性优化查询的相似性 所选文档之间的多样性。

参数
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • fetch_k (int) – 要获取并传递给 MMR 算法的文档数量。默认为 20。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

通过最大边际相关性选择的文档列表。

返回类型

List[Document]

max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, **kwargs: Any) List[Document]

返回使用最大边际相关性选择的文档。

最大边际相关性优化查询的相似性 所选文档之间的多样性。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入向量。

  • k (int) – 要返回的文档数量。默认为 4。

  • fetch_k (int) – 要获取并传递给 MMR 算法的文档数量。默认为 20。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

通过最大边际相关性选择的文档列表。

返回类型

List[Document]

search(query: str, search_type: str, **kwargs: Any) List[Document]

返回使用指定搜索类型与查询最相似的文档。

参数
  • query (str) – 输入文本

  • search_type (str) – 要执行的搜索类型。可以是 “similarity”、“mmr” 或 “similarity_score_threshold”。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

与查询最相似的文档列表。

抛出

ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。

返回类型

List[Document]

返回与嵌入向量最相似的文档及其分数。

参数
  • query (str) – 用于查找相似文档的查询

  • k (int) – 要返回的文档数量。默认为 4。

  • search_options (Optional[Dict[str, Any]]) – 传递给 Couchbase 搜索的可选搜索选项。默认为空字典

  • fields (Optional[List[str]]) – 要包含在结果元数据中的可选字段列表。 请注意,这些需要存储在索引中。 如果未指定任何内容,则默认为索引中存储的所有字段。

  • kwargs (Any) –

返回

与查询最相似的文档列表。

返回类型

List[Document]

similarity_search_by_vector(embedding: List[float], k: int = 4, search_options: Optional[Dict[str, Any]] = {}, **kwargs: Any) List[Document]

返回与向量嵌入最相似的文档。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入向量。

  • k (int) – 要返回的文档数量。默认为 4。

  • search_options (Optional[Dict[str, Any]]) – 传递给 Couchbase 搜索的可选搜索选项。默认为空字典。

  • fields (Optional[List[str]]) – 要包含在结果元数据中的可选字段列表。 请注意,这些需要存储在索引中。 如果未指定任何内容,则默认为文档文本和元数据字段。

  • kwargs (Any) –

返回

与查询最相似的文档列表。

返回类型

List[Document]

similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

返回文档和相关性评分,评分范围为 [0, 1]。

0 表示不相似,1 表示最相似。

参数
  • query (str) – 输入文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • **kwargs (Any) –

    要传递给相似性搜索的 kwargs。应包括:score_threshold:可选,介于 0 到 1 之间的浮点值,用于

    过滤检索到的文档结果集。

返回

(文档, 相似度分数) 元组列表。

返回类型

List[Tuple[Document, float]]

similarity_search_with_score(query: str, k: int = 4, search_options: Optional[Dict[str, Any]] = {}, **kwargs: Any) List[Tuple[Document, float]]

返回与查询最相似的文档及其分数。

参数
  • query (str) – 用于查找相似文档的查询

  • k (int) – 要返回的文档数量。默认为 4。

  • search_options (Optional[Dict[str, Any]]) – 传递给 Couchbase 搜索的可选搜索选项。默认为空字典。

  • fields (Optional[List[str]]) – 要包含在结果元数据中的可选字段列表。 请注意,这些需要存储在索引中。 如果未指定任何内容,则默认为文本和元数据字段。

  • kwargs (Any) –

返回

与查询最相似的(Document,score)列表。

返回类型

List[Tuple[Document, float]]

similarity_search_with_score_by_vector(embedding: List[float], k: int = 4, search_options: Optional[Dict[str, Any]] = {}, **kwargs: Any) List[Tuple[Document, float]]

返回与嵌入向量最相似的文档及其分数。

参数
  • embedding (List[float]) – 用于查找与文档相似的嵌入向量。

  • k (int) – 要返回的文档数量。默认为 4。

  • search_options (Optional[Dict[str, Any]]) – 传递给 Couchbase 搜索的可选搜索选项。默认为空字典。

  • fields (Optional[List[str]]) – 要包含在结果元数据中的可选字段列表。 请注意,这些需要存储在索引中。 如果未指定任何内容,则默认为索引中存储的所有字段。

  • kwargs (Any) –

返回

与查询向量最相似的(Document,score)列表。

返回类型

List[Tuple[Document, float]]

streaming_upsert(items: Iterable[Document], /, batch_size: int, **kwargs: Any) Iterator[UpsertResponse]

Beta

在 0.2.11 版本中添加。API 可能会发生变化。

以流式方式更新文档。

参数
  • items (Iterable[Document]) – 要添加到向量存储的文档的可迭代对象。

  • batch_size (int) – 每次 upsert 批处理的大小。

  • kwargs (Any) – 附加关键字参数。 kwargs 应仅包含所有文档通用的参数。(例如,索引超时、重试策略等)kwargs 不应包含 ids 以避免语义不明确。 相反,ID 应作为 Document 对象的一部分提供。

产生

UpsertResponse – 响应对象,其中包含向量数据库中成功添加或更新的 ID 列表以及未能添加或更新的 ID 列表。

返回类型

Iterator[UpsertResponse]

0.2.11 版本新增。

update(prompt: str, llm_string: str, return_val: Sequence[Generation]) None[source]

基于提示词和 llm_string 更新缓存

参数
  • prompt (str) –

  • llm_string (str) –

  • return_val (Sequence[Generation]) –

返回类型

upsert(items: Sequence[Document], /, **kwargs: Any) UpsertResponse

Beta

在 0.2.11 版本中添加。API 可能会发生变化。

在向量存储中添加或更新文档。

如果提供了 Document 对象的 ID 字段,则 upsert 功能应使用该字段。如果未提供 ID,则 upsert 方法可以自由地为文档生成 ID。

当指定 ID 且文档已存在于向量数据库中时,upsert 方法应使用新数据更新文档。如果文档不存在,则 upsert 方法应将文档添加到向量数据库。

参数
  • items (Sequence[Document]) – 要添加到向量数据库的文档序列。

  • kwargs (Any) – 额外的关键字参数。

返回

一个响应对象,其中包含向量数据库中成功添加或更新的 ID 列表以及未能添加或更新的 ID 列表。

返回类型

UpsertResponse

0.2.11 版本新增。