langchain_astradb.vectorstores
.AstraDBVectorStore¶
- class langchain_astradb.vectorstores.AstraDBVectorStore(*, collection_name: str, embedding: Optional[Embeddings] = None, token: Optional[Union[str, TokenProvider]] = None, api_endpoint: Optional[str] = None, environment: Optional[str] = None, astra_db_client: Optional[AstraDB] = None, async_astra_db_client: Optional[AsyncAstraDB] = None, namespace: Optional[str] = None, metric: Optional[str] = None, batch_size: Optional[int] = None, bulk_insert_batch_concurrency: Optional[int] = None, bulk_insert_overwrite_concurrency: Optional[int] = None, bulk_delete_concurrency: Optional[int] = None, setup_mode: SetupMode = SetupMode.SYNC, pre_delete_collection: bool = False, metadata_indexing_include: Optional[Iterable[str]] = None, metadata_indexing_exclude: Optional[Iterable[str]] = None, collection_indexing_policy: Optional[Dict[str, Any]] = None, collection_vector_service_options: Optional[CollectionVectorServiceOptions] = None, collection_embedding_api_key: Optional[Union[str, EmbeddingHeadersProvider]] = None)[source]¶
DataStax Astra DB 向量存储工作负载的包装器。
有关快速入门和详细信息,请访问 https://docs.datastax.com/en/astra/astra-db-vector/
示例
from langchain_astradb.vectorstores import AstraDBVectorStore from langchain_openai.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() vectorstore = AstraDBVectorStore( embedding=embeddings, collection_name="my_store", token="AstraCS:...", api_endpoint="https://<DB-ID>-<REGION>.apps.astra.datastax.com" ) vectorstore.add_texts(["Giraffes", "All good here"]) results = vectorstore.similarity_search("Everything's ok", k=1)
- 参数
embedding (Optional[Embeddings]) – 要使用的嵌入函数或服务。 这支持客户端嵌入函数或对外部嵌入提供程序的调用。 如果提供了 embedding,则不能提供参数 collection_vector_service_options 和 collection_embedding_api_key。
collection_name (str) – 要创建/使用的 Astra DB 集合的名称。
token (Optional[Union[str, TokenProvider]]) – 用于 Astra DB 使用的 API 令牌,可以是字符串形式或 astrapy.authentication.TokenProvider 的子类。 如果未提供,则会检查环境变量 ASTRA_DB_APPLICATION_TOKEN。
api_endpoint (Optional[str]) – API 端点的完整 URL,例如 https://<DB-ID>-us-east1.apps.astra.datastax.com。 如果未提供,则会检查环境变量 ASTRA_DB_API_ENDPOINT。
environment (Optional[str]) – 指定目标 Data API 环境的字符串。 如果省略,则默认为 “prod”(Astra DB 生产环境)。 其他值位于 astrapy.constants.Environment 枚举类中。
astra_db_client (Optional[AstraDBClient]) – 从 0.3.5 版本开始已弃用。 请使用 ‘token’、‘api_endpoint’ 和可选的 ‘environment’。 您可以传递已创建的 ‘astrapy.db.AstraDB’ 实例(替代 ‘token’、‘api_endpoint’ 和 ‘environment’)。
async_astra_db_client (Optional[AsyncAstraDBClient]) – 从 0.3.5 版本开始已弃用。 请使用 ‘token’、‘api_endpoint’ 和可选的 ‘environment’。 您可以传递已创建的 ‘astrapy.db.AsyncAstraDB’ 实例(替代 ‘token’、‘api_endpoint’ 和 ‘environment’)。
namespace (Optional[str]) – 创建集合的命名空间(也称为键空间)。 如果未提供,则会检查环境变量 ASTRA_DB_KEYSPACE。 默认为数据库的“默认命名空间”。
metric (Optional[str]) – 要使用的相似度函数,从 Astra DB 中可用的函数中选择。 如果省略,它将使用 Astra DB API 的默认值(即 “cosine” - 但出于性能原因,如果嵌入向量已归一化为 1,则建议使用 “dot_product”)。
batch_size (Optional[int]) – 每个单独插入 API 请求的文档块大小。 如果未提供,则应用 astrapy 默认值。
bulk_insert_batch_concurrency (Optional[int]) – 并发插入批次的线程或协程数。
bulk_insert_overwrite_concurrency (Optional[int]) – 在批次中插入预先存在的条目的线程或协程数。
bulk_delete_concurrency (Optional[int]) – 用于多条目删除的线程或协程数。
pre_delete_collection (bool) – 是否在创建集合之前删除集合。 如果为 False 且集合已存在,则将按原样使用该集合。
metadata_indexing_include (Optional[Iterable[str]]) – 应为后续搜索中的过滤编制索引的特定元数据子字段的允许列表。
metadata_indexing_exclude (Optional[Iterable[str]]) – 不应为后续搜索中的过滤编制索引的特定元数据子字段的拒绝列表。
collection_indexing_policy (Optional[Dict[str, Any]]) – 用于指定应为后续搜索中的过滤编制索引的字段的完整“索引”规范。 此字典必须符合 API 规范(请参阅 docs.datastax.com/en/astra/astra-db-vector/api-reference/ data-api-commands.html#advanced-feature-indexing-clause-on-createcollection)
collection_vector_service_options (Optional[CollectionVectorServiceOptions]) – 指定在 Astra DB 中使用服务器端嵌入。 如果传递此参数,则不能提供 embedding。
collection_embedding_api_key (Optional[Union[str, EmbeddingHeadersProvider]]) – 用于在 Astra DB 中使用服务器端嵌入。 使用此参数,可以提供 API 密钥,该密钥将随每个数据请求传递到 Astra DB。 此参数可以是字符串或 astrapy.authentication.EmbeddingHeadersProvider 的子类。 当服务针对集合配置,但在 Astra 的密钥管理系统中未存储相应的密钥时,此参数很有用。 如果不指定 collection_vector_service_options,则不能提供此参数。
setup_mode (SetupMode) –
注意
对于同步
add_texts()
中的并发,作为经验法则,在典型的客户端机器上,建议保持 quantity bulk_insert_batch_concurrency * bulk_insert_overwrite_concurrency 远低于 1000,以避免耗尽客户端多线程/网络资源。 硬编码的默认值在某种程度上是保守的,以满足大多数机器的规格,但一个明智的测试选择可能是bulk_insert_batch_concurrency = 80
bulk_insert_overwrite_concurrency = 10
这里需要进行一些实验才能获得最佳结果,具体取决于机器/网络规格和预期工作负载(特别是,写入是更新现有 id 的频率)。 请记住,您可以将并发设置传递给对
add_texts()
和add_documents()
的单独调用。属性
embeddings
访问提供的 embeddings 对象。
方法
__init__
(*, collection_name[, embedding, ...])DataStax Astra DB 向量存储工作负载的包装器。
aadd_documents
(documents, **kwargs)异步运行更多文档通过嵌入并添加到向量存储。
aadd_texts
(texts[, metadatas, ids, ...])运行文本通过嵌入并将它们添加到向量存储。
aclear
()清空集合的所有存储条目。
add_documents
(documents, **kwargs)在向量存储中添加或更新文档。
add_texts
(texts[, metadatas, ids, ...])运行文本通过嵌入并将它们添加到向量存储。
adelete
([ids, concurrency])按向量 ID 删除。
adelete_by_document_id
(document_id)从存储中删除单个文档,给定其文档 ID。
从数据库中完全删除集合(与仅清空集合的
aclear()
相反)。afrom_documents
(documents[, embedding])从文档列表创建 Astra DB 向量存储。
afrom_texts
(texts[, embedding, metadatas, ids])从原始文本创建 Astra DB 向量存储。
aget_by_ids
(ids, /)异步按 ID 获取文档。
amax_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
as_retriever
(**kwargs)返回从该 VectorStore 初始化 VectorStoreRetriever。
asearch
(query, search_type, **kwargs)异步返回与使用指定搜索类型查询最相似的文档。
asimilarity_search
(query[, k, filter])返回与查询最相似的文档。
asimilarity_search_by_vector
(embedding[, k, ...])返回与嵌入向量最相似的文档。
异步返回文档和相关性评分,范围为 [0, 1]。
asimilarity_search_with_score
(query[, k, filter])返回与查询最相似的文档,并带有评分。
返回与嵌入向量最相似的文档,并带有评分。
asimilarity_search_with_score_id
(query[, k, ...])返回与查询最相似的文档,并带有评分和 ID。
返回与嵌入向量最相似的文档,并带有评分和 ID。
astreaming_upsert
(items, /, batch_size, **kwargs)aupsert
(items, /, **kwargs)clear
()清空集合的所有存储条目。
delete
([ids, concurrency])按向量 ID 删除。
delete_by_document_id
(document_id)从存储中删除单个文档,给定其文档 ID。
从数据库中完全删除集合(与仅清空集合的
clear()
相反)。from_documents
(documents[, embedding])从文档列表创建 Astra DB 向量存储。
from_texts
(texts[, embedding, metadatas, ids])从原始文本创建 Astra DB 向量存储。
get_by_ids
(ids, /)按 ID 获取文档。
max_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
search
(query, search_type, **kwargs)返回与使用指定搜索类型查询最相似的文档。
similarity_search
(query[, k, filter])返回与查询最相似的文档。
similarity_search_by_vector
(embedding[, k, ...])返回与嵌入向量最相似的文档。
返回文档和相关性评分,范围为 [0, 1]。
similarity_search_with_score
(query[, k, filter])返回与查询最相似的文档,并带有评分。
similarity_search_with_score_by_vector
(embedding)返回与嵌入向量最相似的文档,并带有评分。
similarity_search_with_score_id
(query[, k, ...])返回与查询最相似的文档,并带有评分和 ID。
返回与嵌入向量最相似的文档,并带有评分和 ID。
streaming_upsert
(items, /, batch_size, **kwargs)upsert
(items, /, **kwargs)- __init__(*, collection_name: str, embedding: Optional[Embeddings] = None, token: Optional[Union[str, TokenProvider]] = None, api_endpoint: Optional[str] = None, environment: Optional[str] = None, astra_db_client: Optional[AstraDB] = None, async_astra_db_client: Optional[AsyncAstraDB] = None, namespace: Optional[str] = None, metric: Optional[str] = None, batch_size: Optional[int] = None, bulk_insert_batch_concurrency: Optional[int] = None, bulk_insert_overwrite_concurrency: Optional[int] = None, bulk_delete_concurrency: Optional[int] = None, setup_mode: SetupMode = SetupMode.SYNC, pre_delete_collection: bool = False, metadata_indexing_include: Optional[Iterable[str]] = None, metadata_indexing_exclude: Optional[Iterable[str]] = None, collection_indexing_policy: Optional[Dict[str, Any]] = None, collection_vector_service_options: Optional[CollectionVectorServiceOptions] = None, collection_embedding_api_key: Optional[Union[str, EmbeddingHeadersProvider]] = None) None [source]¶
DataStax Astra DB 向量存储工作负载的包装器。
有关快速入门和详细信息,请访问 https://docs.datastax.com/en/astra/astra-db-vector/
示例
from langchain_astradb.vectorstores import AstraDBVectorStore from langchain_openai.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() vectorstore = AstraDBVectorStore( embedding=embeddings, collection_name="my_store", token="AstraCS:...", api_endpoint="https://<DB-ID>-<REGION>.apps.astra.datastax.com" ) vectorstore.add_texts(["Giraffes", "All good here"]) results = vectorstore.similarity_search("Everything's ok", k=1)
- 参数
embedding (Optional[Embeddings]) – 要使用的嵌入函数或服务。 这支持客户端嵌入函数或对外部嵌入提供程序的调用。 如果提供了 embedding,则不能提供参数 collection_vector_service_options 和 collection_embedding_api_key。
collection_name (str) – 要创建/使用的 Astra DB 集合的名称。
token (Optional[Union[str, TokenProvider]]) – 用于 Astra DB 使用的 API 令牌,可以是字符串形式或 astrapy.authentication.TokenProvider 的子类。 如果未提供,则会检查环境变量 ASTRA_DB_APPLICATION_TOKEN。
api_endpoint (Optional[str]) – API 端点的完整 URL,例如 https://<DB-ID>-us-east1.apps.astra.datastax.com。 如果未提供,则会检查环境变量 ASTRA_DB_API_ENDPOINT。
environment (Optional[str]) – 指定目标 Data API 环境的字符串。 如果省略,则默认为 “prod”(Astra DB 生产环境)。 其他值位于 astrapy.constants.Environment 枚举类中。
astra_db_client (Optional[AstraDB]) – DEPRECATED starting from version 0.3.5. Please use ‘token’, ‘api_endpoint’ and optionally ‘environment’. you can pass an already-created ‘astrapy.db.AstraDB’ instance (alternatively to ‘token’, ‘api_endpoint’ and ‘environment’).
async_astra_db_client (Optional[AsyncAstraDB]) – DEPRECATED starting from version 0.3.5. Please use ‘token’, ‘api_endpoint’ and optionally ‘environment’. you can pass an already-created ‘astrapy.db.AsyncAstraDB’ instance (alternatively to ‘token’, ‘api_endpoint’ and ‘environment’).
namespace (Optional[str]) – 创建集合的命名空间(也称为键空间)。 如果未提供,则会检查环境变量 ASTRA_DB_KEYSPACE。 默认为数据库的“默认命名空间”。
metric (Optional[str]) – 要使用的相似度函数,从 Astra DB 中可用的函数中选择。 如果省略,它将使用 Astra DB API 的默认值(即 “cosine” - 但出于性能原因,如果嵌入向量已归一化为 1,则建议使用 “dot_product”)。
batch_size (Optional[int]) – 每个单独插入 API 请求的文档块大小。 如果未提供,则应用 astrapy 默认值。
bulk_insert_batch_concurrency (Optional[int]) – 并发插入批次的线程或协程数。
bulk_insert_overwrite_concurrency (Optional[int]) – 在批次中插入预先存在的条目的线程或协程数。
bulk_delete_concurrency (Optional[int]) – 用于多条目删除的线程或协程数。
pre_delete_collection (bool) – 是否在创建集合之前删除集合。 如果为 False 且集合已存在,则将按原样使用该集合。
metadata_indexing_include (Optional[Iterable[str]]) – 应为后续搜索中的过滤编制索引的特定元数据子字段的允许列表。
metadata_indexing_exclude (Optional[Iterable[str]]) – 不应为后续搜索中的过滤编制索引的特定元数据子字段的拒绝列表。
collection_indexing_policy (Optional[Dict[str, Any]]) – 用于指定应为后续搜索中的过滤编制索引的字段的完整“索引”规范。 此字典必须符合 API 规范(请参阅 docs.datastax.com/en/astra/astra-db-vector/api-reference/ data-api-commands.html#advanced-feature-indexing-clause-on-createcollection)
collection_vector_service_options (Optional[CollectionVectorServiceOptions]) – 指定在 Astra DB 中使用服务器端嵌入。 如果传递此参数,则不能提供 embedding。
collection_embedding_api_key (Optional[Union[str, EmbeddingHeadersProvider]]) – 用于在 Astra DB 中使用服务器端嵌入。 使用此参数,可以提供 API 密钥,该密钥将随每个数据请求传递到 Astra DB。 此参数可以是字符串或 astrapy.authentication.EmbeddingHeadersProvider 的子类。 当服务针对集合配置,但在 Astra 的密钥管理系统中未存储相应的密钥时,此参数很有用。 如果不指定 collection_vector_service_options,则不能提供此参数。
setup_mode (SetupMode) –
- 返回类型
None
注意
对于同步
add_texts()
中的并发,作为经验法则,在典型的客户端机器上,建议保持 quantity bulk_insert_batch_concurrency * bulk_insert_overwrite_concurrency 远低于 1000,以避免耗尽客户端多线程/网络资源。 硬编码的默认值在某种程度上是保守的,以满足大多数机器的规格,但一个明智的测试选择可能是bulk_insert_batch_concurrency = 80
bulk_insert_overwrite_concurrency = 10
这里需要进行一些实验才能获得最佳结果,具体取决于机器/网络规格和预期工作负载(特别是,写入是更新现有 id 的频率)。 请记住,您可以将并发设置传递给对
add_texts()
和add_documents()
的单独调用。
- async aadd_documents(documents: List[Document], **kwargs: Any) List[str] ¶
异步运行更多文档通过嵌入并添加到向量存储。
- 参数
documents (List[Document]) – 要添加到向量存储的文档。
kwargs (Any) – 附加的关键字参数。
- 返回
添加文本的 ID 列表。
- Raises
ValueError – 如果 ID 的数量与文档的数量不匹配,则引发此错误。
- 返回类型
List[str]
- async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, *, batch_size: Optional[int] = None, batch_concurrency: Optional[int] = None, overwrite_concurrency: Optional[int] = None, **kwargs: Any) List[str] [source]¶
运行文本通过嵌入并将它们添加到向量存储。
如果传递显式 ID,则已在存储中的 ID 条目将被替换。
- 参数
texts (Iterable[str]) – 要添加到向量存储的文本。
metadatas (Optional[List[dict]]) – 元数据的可选列表。
ids (Optional[List[str]]) – ID 的可选列表。
batch_size (Optional[int]) – 每个单独插入 API 请求的文档块大小。如果未提供,则默认为向量存储的总体默认值(进而默认为 astrapy 默认值)。
batch_concurrency (Optional[int]) – 用于并发处理插入批次的同步协程数。如果未提供,则默认为向量存储的总体设置。
overwrite_concurrency (Optional[int]) – 用于处理每个批次中预先存在的文档的同步协程数。如果未提供,则默认为向量存储的总体设置。
kwargs (Any) –
- 返回类型
List[str]
注意
元数据字典中允许的字段名称存在约束,这些约束来自底层的 Astra DB API。例如,$(美元符号)不能在字典键中使用。有关详细信息,请参阅此文档: https://docs.datastax.com/en/astra/astra-db-vector/api-reference/data-api.html
- 返回
添加文本的 ID 列表。
- 参数
texts (Iterable[str]) –
metadatas (Optional[List[dict]]) –
ids (Optional[List[str]]) –
batch_size (Optional[int]) –
batch_concurrency (Optional[int]) –
overwrite_concurrency (Optional[int]) –
kwargs (Any) –
- 返回类型
List[str]
- add_documents(documents: List[Document], **kwargs: Any) List[str] ¶
在向量存储中添加或更新文档。
- 参数
documents (List[Document]) – 要添加到向量存储的文档。
kwargs (Any) – 附加的关键字参数。如果 kwargs 包含 ids 并且 documents 包含 ids,则 kwargs 中的 ids 将优先。
- 返回
添加文本的 ID 列表。
- Raises
ValueError – 如果 ID 的数量与文档的数量不匹配,则引发此错误。
- 返回类型
List[str]
- add_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, *, batch_size: Optional[int] = None, batch_concurrency: Optional[int] = None, overwrite_concurrency: Optional[int] = None, **kwargs: Any) List[str] [source]¶
运行文本通过嵌入并将它们添加到向量存储。
如果传递显式 ID,则已在存储中的 ID 条目将被替换。
- 参数
texts (Iterable[str]) – 要添加到向量存储的文本。
metadatas (Optional[List[dict]]) – 元数据的可选列表。
ids (Optional[List[str]]) – ID 的可选列表。
batch_size (Optional[int]) – 每个单独插入 API 请求的文档块大小。如果未提供,则默认为向量存储的总体默认值(进而默认为 astrapy 默认值)。
batch_concurrency (Optional[int]) – 用于并发处理插入批次的线程数。如果未提供,则默认为向量存储的总体设置。
overwrite_concurrency (Optional[int]) – 用于处理每个批次中预先存在的文档的线程数。如果未提供,则默认为向量存储的总体设置。
kwargs (Any) –
- 返回类型
List[str]
注意
元数据字典中允许的字段名称存在约束,这些约束来自底层的 Astra DB API。例如,$(美元符号)不能在字典键中使用。有关详细信息,请参阅此文档: https://docs.datastax.com/en/astra/astra-db-vector/api-reference/data-api.html
- 返回
添加文本的 ID 列表。
- 参数
texts (Iterable[str]) –
metadatas (Optional[List[dict]]) –
ids (Optional[List[str]]) –
batch_size (Optional[int]) –
batch_concurrency (Optional[int]) –
overwrite_concurrency (Optional[int]) –
kwargs (Any) –
- 返回类型
List[str]
- async adelete(ids: Optional[List[str]] = None, concurrency: Optional[int] = None, **kwargs: Any) Optional[bool] [source]¶
按向量 ID 删除。
- 参数
ids (Optional[List[str]]) – 要删除的 ID 列表。
concurrency (Optional[int]) – 用于单文档删除请求的最大同步协程数。默认为向量存储的总体设置。
kwargs (Any) –
- 返回
如果删除(完全)成功,则为 True,否则为 False。
- 返回类型
Optional[bool]
- async adelete_by_document_id(document_id: str) bool [source]¶
从存储中删除单个文档,给定其文档 ID。
- 参数
document_id (str) – 文档 ID
- 返回类型
bool
- 返回
如果文档确实已被删除,则为 True,如果未找到 ID,则为 False。
- async adelete_collection() None [source]¶
从数据库中完全删除集合(与
aclear()
不同,后者仅清空集合)。存储的数据将丢失且无法恢复,资源将被释放。谨慎使用。- 返回类型
None
- async classmethod afrom_documents(documents: List[Document], embedding: Optional[Embeddings] = None, **kwargs: Any) AstraDBVectorStore [source]¶
从文档列表创建 Astra DB 向量存储。
实用程序方法,它会延迟到 ‘afrom_texts’(请参阅该方法)。
- Args: 请参阅 ‘afrom_texts’,但此处您必须提供 ‘documents’
以代替 ‘texts’ 和 ‘metadatas’。
- 返回
一个 AstraDBVectorStore 向量存储。
- 参数
documents (List[Document]) –
embedding (Optional[Embeddings]) –
kwargs (Any) –
- 返回类型
- async classmethod afrom_texts(texts: List[str], embedding: Optional[Embeddings] = None, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) AstraDBVectorStore [source]¶
从原始文本创建 Astra DB 向量存储。
- 参数
texts (List[str]) – 要插入的文本。
metadatas (Optional[List[dict]]) – 文本的元数据字典。
ids (Optional[List[str]]) – 要与文本关联的 ID。
**kwargs (Any) – 您可以将任何参数传递给
aadd_texts()
和/或 ‘AstraDBVectorStore’ 构造函数(有关详细信息,请参阅这些方法)。这些参数将按原样路由到各自的方法。embedding (Optional[Embeddings]) –
- 返回
一个 AstraDBVectorStore 向量存储。
- 返回类型
- async aget_by_ids(ids: Sequence[str], /) List[Document] ¶
异步按 ID 获取文档。
返回的文档应将其 ID 字段设置为向量存储中文档的 ID。
如果某些 ID 未找到或存在重复 ID,则返回的文档可能少于请求的文档。
用户不应假设返回文档的顺序与输入 ID 的顺序匹配。相反,用户应依赖返回文档的 ID 字段。
如果对于某些 ID 未找到文档,则此方法不应引发异常。
- 参数
ids (Sequence[str]) – 要检索的 ID 列表。
- 返回
文档列表。
- 返回类型
List[Document]
0.2.11 版本新增功能。
- async amax_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, Any]] = None, **kwargs: Any) List[Document] [source]¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化查询的相似性和所选文档之间的多样性。
- 参数
query (str) – 要查找与之相似的文档的查询。
k (int) – 要返回的文档数量。
fetch_k (int) – 要获取并传递给 MMR 算法的文档数量。
lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。
filter (Optional[Dict[str, Any]]) – 要应用的元数据过滤器。
kwargs (Any) –
- 返回
最大边际相关性选择的文档列表。
- 返回类型
List[Document]
- async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, Any]] = None, **kwargs: Any) List[Document] [source]¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化查询的相似性和所选文档之间的多样性。
- 参数
embedding (List[float]) – 用于查找与之相似的文档的嵌入向量。
k (int) – 要返回的文档数量。
fetch_k (int) – 要获取并传递给 MMR 算法的文档数量。
lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。
filter (Optional[Dict[str, Any]]) – 要应用的元数据过滤器。
kwargs (Any) –
- 返回
最大边际相关性选择的文档列表。
- 返回类型
List[Document]
- as_retriever(**kwargs: Any) VectorStoreRetriever ¶
返回从该 VectorStore 初始化 VectorStoreRetriever。
- 参数
**kwargs (Any) –
传递给搜索函数的关键字参数。 可以包括: search_type (Optional[str]): 定义检索器应执行的搜索类型。
可以是 “similarity”(默认)、“mmr” 或 “similarity_score_threshold”。
- search_kwargs (Optional[Dict]): 传递给搜索函数的关键字参数。 可以包括诸如
- k:要返回的文档数量(默认值:4) score_threshold:similarity_score_threshold 的最小相关性阈值
k:要返回的文档数量(默认值:4) score_threshold:similarity_score_threshold 的最小相关性阈值
用于 similarity_score_threshold
- fetch_k:传递给 MMR 算法的文档数量(默认值:20)
(默认值:20)
- lambda_mult:MMR 返回结果的多样性; 1 表示最小多样性,0 表示最大多样性。(默认值:0.5)
1 表示最小多样性,0 表示最大多样性。(默认值:0.5)
filter:按文档元数据过滤
- 返回
VectorStore 的 Retriever 类。
- 返回类型
示例
# Retrieve more documents with higher diversity # Useful if your dataset has many similar documents docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 6, 'lambda_mult': 0.25} ) # Fetch more documents for the MMR algorithm to consider # But only return the top 5 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 5, 'fetch_k': 50} ) # Only retrieve documents that have a relevance score # Above a certain threshold docsearch.as_retriever( search_type="similarity_score_threshold", search_kwargs={'score_threshold': 0.8} ) # Only get the single most similar document from the dataset docsearch.as_retriever(search_kwargs={'k': 1}) # Use a filter to only retrieve documents from a specific paper docsearch.as_retriever( search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}} )
- async asearch(query: str, search_type: str, **kwargs: Any) List[Document] ¶
异步返回与使用指定搜索类型查询最相似的文档。
- 参数
query (str) – 输入文本。
search_type (str) – 要执行的搜索类型。 可以是 “similarity”、“mmr” 或 “similarity_score_threshold”。
**kwargs (Any) – 传递给搜索方法的参数。
- 返回
与查询最相似的文档列表。
- Raises
ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。
- 返回类型
List[Document]
- async asimilarity_search(query: str, k: int = 4, filter: Optional[Dict[str, Any]] = None, **kwargs: Any) List[Document] [source]¶
返回与查询最相似的文档。
- 参数
query (str) – 要查找与之相似的文档的查询。
k (int) – 要返回的文档数量。 默认为 4。
filter (Optional[Dict[str, Any]]) – 要应用的元数据过滤器。
kwargs (Any) –
- 返回
与查询最相似的文档列表。
- 返回类型
List[Document]
- async asimilarity_search_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None, **kwargs: Any) List[Document] [source]¶
返回与嵌入向量最相似的文档。
- 参数
embedding (List[float]) – 用于查找与之相似的文档的嵌入向量。
k (int) – 要返回的文档数量。 默认为 4。
filter (Optional[Dict[str, Any]]) – 要应用的元数据过滤器。
kwargs (Any) –
- 返回
与查询向量最相似的文档列表。
- 返回类型
List[Document]
- async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]] ¶
异步返回文档和相关性评分,范围为 [0, 1]。
0 表示不相似,1 表示最相似。
- 参数
query (str) – 输入文本。
k (int) – 要返回的文档数量。 默认为 4。
**kwargs (Any) –
要传递给相似性搜索的 kwargs。 应包括: score_threshold:可选,介于 0 到 1 之间的浮点值,用于
过滤检索到的文档结果集
- 返回
(文档,相似度得分)元组列表
- 返回类型
List[Tuple[Document, float]]
- async asimilarity_search_with_score(query: str, k: int = 4, filter: Optional[Dict[str, Any]] = None) List[Tuple[Document, float]] [source]¶
返回与查询最相似的文档,并带有评分。
- 参数
query (str) – 要查找与之相似的文档的查询。
k (int) – 要返回的文档数量。 默认为 4。
filter (Optional[Dict[str, Any]]) – 要应用的元数据过滤器。
- 返回
(文档,得分)列表,与查询向量最相似。
- 返回类型
List[Tuple[Document, float]]
- async asimilarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None) List[Tuple[Document, float]] [source]¶
返回与嵌入向量最相似的文档,并带有评分。
- 参数
embedding (List[float]) – 用于查找与之相似的文档的嵌入向量。
k (int) – 要返回的文档数量。 默认为 4。
filter (Optional[Dict[str, Any]]) – 要应用的元数据过滤器。
- 返回
(文档,得分)列表,与查询向量最相似。
- 返回类型
List[Tuple[Document, float]]
- async asimilarity_search_with_score_id(query: str, k: int = 4, filter: Optional[Dict[str, Any]] = None) List[Tuple[Document, float, str]] [source]¶
返回与查询最相似的文档,并带有评分和 ID。
- 参数
query (str) – 要查找与之相似的文档的查询。
k (int) – 要返回的文档数量。 默认为 4。
filter (Optional[Dict[str, Any]]) – 要应用的元数据过滤器。
- 返回
(文档,得分,ID)列表,与查询最相似。
- 返回类型
List[Tuple[Document, float, str]]
- async asimilarity_search_with_score_id_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None) List[Tuple[Document, float, str]] [source]¶
返回与嵌入向量最相似的文档,并带有评分和 ID。
- 参数
embedding (List[float]) – 用于查找与之相似的文档的嵌入向量。
k (int) – 要返回的文档数量。 默认为 4。
filter (Optional[Dict[str, Any]]) – 要应用的元数据过滤器。
- 返回
(文档,得分,ID)列表,与查询向量最相似。
- 返回类型
List[Tuple[Document, float, str]]
- astreaming_upsert(items: AsyncIterable[Document], /, batch_size: int, **kwargs: Any) AsyncIterator[UpsertResponse] ¶
Beta 版本
在 0.2.11 版本中添加。 API 可能会发生变化。
以流式方式 Upsert 文档。 streaming_upsert 的异步版本。
- 参数
items (AsyncIterable[Document]) – 要添加到向量存储的文档的可迭代对象。
batch_size (int) – 每次 upsert 的批量大小。
kwargs (Any) – 附加关键字参数。 kwargs 应仅包含所有文档通用的参数。(例如,索引超时、重试策略等)kwargs 不应包含 ID,以避免语义不明确。 而是应将 ID 作为 Document 对象的一部分提供。
- Yields
UpsertResponse – 响应对象,其中包含已成功在向量存储中添加或更新的 ID 列表,以及未能添加或更新的 ID 列表。
- 返回类型
AsyncIterator[UpsertResponse]
0.2.11 版本新增功能。
- async aupsert(items: Sequence[Document], /, **kwargs: Any) UpsertResponse ¶
Beta 版本
在 0.2.11 版本中添加。 API 可能会发生变化。
在向量存储中添加或更新文档。 upsert 的异步版本。
如果提供了 Document 对象的 ID 字段,则 upsert 功能应使用该字段。 如果未提供 ID,则 upsert 方法可以自由地为文档生成 ID。
当指定 ID 且文档已存在于向量存储中时,upsert 方法应使用新数据更新文档。 如果文档不存在,则 upsert 方法应将文档添加到向量存储中。
- 参数
items (Sequence[Document]) – 要添加到向量存储的文档序列。
kwargs (Any) – 附加的关键字参数。
- 返回
响应对象,其中包含已成功在向量存储中添加或更新的 ID 列表,以及未能添加或更新的 ID 列表。
- 返回类型
0.2.11 版本新增功能。
- delete(ids: Optional[List[str]] = None, concurrency: Optional[int] = None, **kwargs: Any) Optional[bool] [source]¶
按向量 ID 删除。
- 参数
ids (Optional[List[str]]) – 要删除的 ID 列表。
concurrency (Optional[int]) – 发出单文档删除请求的最大线程数。 默认为向量存储的整体设置。
kwargs (Any) –
- 返回
如果删除(完全)成功,则为 True,否则为 False。
- 返回类型
Optional[bool]
- delete_by_document_id(document_id: str) bool [source]¶
从存储中删除单个文档,给定其文档 ID。
- 参数
document_id (str) – 文档 ID
- 返回类型
bool
- 返回
如果文档确实已被删除,则为 True,如果未找到 ID,则为 False。
- delete_collection() None [source]¶
从数据库中完全删除集合(与
clear()
不同,后者仅清空集合)。存储的数据将丢失且无法恢复,资源将被释放。请谨慎使用。- 返回类型
None
- classmethod from_documents(documents: List[Document], embedding: Optional[Embeddings] = None, **kwargs: Any) AstraDBVectorStore [source]¶
从文档列表创建 Astra DB 向量存储。
实用方法,会延迟到 ‘from_texts’ (请参阅该方法)。
- Args: 请参阅 ‘from_texts’,但此处您必须提供 ‘documents’
以代替 ‘texts’ 和 ‘metadatas’。
- 返回
一个 AstraDBVectorStore 向量存储。
- 参数
documents (List[Document]) –
embedding (Optional[Embeddings]) –
kwargs (Any) –
- 返回类型
- classmethod from_texts(texts: List[str], embedding: Optional[Embeddings] = None, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) AstraDBVectorStore [source]¶
从原始文本创建 Astra DB 向量存储。
- 参数
texts (List[str]) – 要插入的文本。
embedding (Optional[Embeddings]) – 用于存储的嵌入函数。
metadatas (Optional[List[dict]]) – 文本的元数据字典。
ids (Optional[List[str]]) – 要与文本关联的 ID。
**kwargs (Any) – 您可以传递任何您想要传递给
add_texts()
和/或 ‘AstraDBVectorStore’ 构造函数的参数(有关详细信息,请参阅这些方法)。这些参数将按原样路由到各自的方法。
- 返回
一个 AstraDBVectorStore 向量存储。
- 返回类型
- get_by_ids(ids: Sequence[str], /) List[Document] ¶
按 ID 获取文档。
返回的文档应将其 ID 字段设置为向量存储中文档的 ID。
如果某些 ID 未找到或存在重复 ID,则返回的文档可能少于请求的文档。
用户不应假设返回文档的顺序与输入 ID 的顺序匹配。相反,用户应依赖返回文档的 ID 字段。
如果对于某些 ID 未找到文档,则此方法不应引发异常。
- 参数
ids (Sequence[str]) – 要检索的 ID 列表。
- 返回
文档列表。
- 返回类型
List[Document]
0.2.11 版本新增功能。
- max_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, Any]] = None, **kwargs: Any) List[Document] [source]¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化查询的相似性和所选文档之间的多样性。
- 参数
query (str) – 要查找与之相似的文档的查询。
k (int) – 要返回的文档数量。
fetch_k (int) – 要获取并传递给 MMR 算法的文档数量。
lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。
filter (Optional[Dict[str, Any]]) – 要应用的元数据过滤器。
kwargs (Any) –
- 返回
最大边际相关性选择的文档列表。
- 返回类型
List[Document]
- max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, Any]] = None, **kwargs: Any) List[Document] [source]¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化查询的相似性和所选文档之间的多样性。
- 参数
embedding (List[float]) – 用于查找与之相似的文档的嵌入向量。
k (int) – 要返回的文档数量。
fetch_k (int) – 要获取并传递给 MMR 算法的文档数量。
lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。
filter (Optional[Dict[str, Any]]) – 要应用的元数据过滤器。
kwargs (Any) –
- 返回
最大边际相关性选择的文档列表。
- 返回类型
List[Document]
- search(query: str, search_type: str, **kwargs: Any) List[Document] ¶
返回与使用指定搜索类型查询最相似的文档。
- 参数
query (str) – 输入文本
search_type (str) – 要执行的搜索类型。 可以是 “similarity”、“mmr” 或 “similarity_score_threshold”。
**kwargs (Any) – 传递给搜索方法的参数。
- 返回
与查询最相似的文档列表。
- Raises
ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。
- 返回类型
List[Document]
- similarity_search(query: str, k: int = 4, filter: Optional[Dict[str, Any]] = None, **kwargs: Any) List[Document] [source]¶
返回与查询最相似的文档。
- 参数
query (str) – 要查找与之相似的文档的查询。
k (int) – 要返回的文档数量。 默认为 4。
filter (Optional[Dict[str, Any]]) – 要应用的元数据过滤器。
kwargs (Any) –
- 返回
与查询最相似的文档列表。
- 返回类型
List[Document]
- similarity_search_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None, **kwargs: Any) List[Document] [source]¶
返回与嵌入向量最相似的文档。
- 参数
embedding (List[float]) – 用于查找与之相似的文档的嵌入向量。
k (int) – 要返回的文档数量。 默认为 4。
filter (Optional[Dict[str, Any]]) – 要应用的元数据过滤器。
kwargs (Any) –
- 返回
与查询向量最相似的文档列表。
- 返回类型
List[Document]
- similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]] ¶
返回文档和相关性评分,范围为 [0, 1]。
0 表示不相似,1 表示最相似。
- 参数
query (str) – 输入文本。
k (int) – 要返回的文档数量。 默认为 4。
**kwargs (Any) –
要传递给相似性搜索的 kwargs。 应包括: score_threshold:可选,介于 0 到 1 之间的浮点值,用于
过滤检索到的文档结果集。
- 返回
元组列表,包含 (doc, similarity_score)。
- 返回类型
List[Tuple[Document, float]]
- similarity_search_with_score(query: str, k: int = 4, filter: Optional[Dict[str, Any]] = None) List[Tuple[Document, float]] [source]¶
返回与查询最相似的文档,并带有评分。
- 参数
query (str) – 要查找与之相似的文档的查询。
k (int) – 要返回的文档数量。 默认为 4。
filter (Optional[Dict[str, Any]]) – 要应用的元数据过滤器。
- 返回
(文档,得分)列表,与查询向量最相似。
- 返回类型
List[Tuple[Document, float]]
- similarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None) List[Tuple[Document, float]] [source]¶
返回与嵌入向量最相似的文档,并带有评分。
- 参数
embedding (List[float]) – 用于查找与之相似的文档的嵌入向量。
k (int) – 要返回的文档数量。 默认为 4。
filter (Optional[Dict[str, Any]]) – 要应用的元数据过滤器。
- 返回
(文档,得分)列表,与查询向量最相似。
- 返回类型
List[Tuple[Document, float]]
- similarity_search_with_score_id(query: str, k: int = 4, filter: Optional[Dict[str, Any]] = None) List[Tuple[Document, float, str]] [source]¶
返回与查询最相似的文档,并带有评分和 ID。
- 参数
query (str) – 要查找与之相似的文档的查询。
k (int) – 要返回的文档数量。 默认为 4。
filter (Optional[Dict[str, Any]]) – 要应用的元数据过滤器。
- 返回
(文档,得分,ID)列表,与查询最相似。
- 返回类型
List[Tuple[Document, float, str]]
- similarity_search_with_score_id_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None) List[Tuple[Document, float, str]] [source]¶
返回与嵌入向量最相似的文档,并带有评分和 ID。
- 参数
embedding (List[float]) – 用于查找与之相似的文档的嵌入向量。
k (int) – 要返回的文档数量。 默认为 4。
filter (Optional[Dict[str, Any]]) – 要应用的元数据过滤器。
- 返回
(文档,得分,ID)列表,与查询向量最相似。
- 返回类型
List[Tuple[Document, float, str]]
- streaming_upsert(items: Iterable[Document], /, batch_size: int, **kwargs: Any) Iterator[UpsertResponse] ¶
Beta 版本
在 0.2.11 版本中添加。 API 可能会发生变化。
以流式方式更新文档。
- 参数
items (Iterable[Document]) – 要添加到向量存储的可迭代文档。
batch_size (int) – 每次 upsert 的批量大小。
kwargs (Any) – 附加关键字参数。 kwargs 应仅包含所有文档通用的参数。(例如,索引超时、重试策略等)kwargs 不应包含 ids 以避免语义模糊。相反,ID 应作为 Document 对象的一部分提供。
- Yields
UpsertResponse – 响应对象,其中包含已成功在向量存储中添加或更新的 ID 列表,以及未能添加或更新的 ID 列表。
- 返回类型
Iterator[UpsertResponse]
0.2.11 版本新增功能。
- upsert(items: Sequence[Document], /, **kwargs: Any) UpsertResponse ¶
Beta 版本
在 0.2.11 版本中添加。 API 可能会发生变化。
在向量存储中添加或更新文档。
如果提供了 Document 对象的 ID 字段,则 upsert 功能应使用该字段。 如果未提供 ID,则 upsert 方法可以自由地为文档生成 ID。
当指定 ID 且文档已存在于向量存储中时,upsert 方法应使用新数据更新文档。 如果文档不存在,则 upsert 方法应将文档添加到向量存储中。
- 参数
items (Sequence[Document]) – 要添加到向量存储的文档序列。
kwargs (Any) – 附加的关键字参数。
- 返回
响应对象,其中包含已成功在向量存储中添加或更新的 ID 列表,以及未能添加或更新的 ID 列表。
- 返回类型
0.2.11 版本新增功能。