langchain_community.vectorstores.pgvector.PGVector

class langchain_community.vectorstores.pgvector.PGVector(connection_string: str, embedding_function: Embeddings, embedding_length: Optional[int] = None, collection_name: str = 'langchain', collection_metadata: Optional[dict] = None, distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, pre_delete_collection: bool = False, logger: Optional[Logger] = None, relevance_score_fn: Optional[Callable[[float], float]] = None, *, connection: Optional[Connection] = None, engine_args: Optional[dict[str, Any]] = None, use_jsonb: bool = False, create_extension: bool = True)[source]

Deprecated since version 0.0.31: 从 0.0.31 版本起已弃用:此类即将弃用,并可能在未来版本中移除。您可以切换到使用 `langchain_postgres` 中的 `PGVector` 实现。在迁移之前,请阅读此类文档字符串中的指南,因为不同实现之间存在一些差异。有关新实现的详细信息,请参阅 <https://github.com/langchain-ai/langchain-postgres>。请改用 from langchain_postgres import PGVector;

Postgres/PGVector 向量存储。

已弃用:此类即将弃用,并且可能不会再收到更新。此类的改进版本在 `langchain_postgres` 中以 `PGVector` 提供。请改用该类。

no updates. An improved version of this class is available in langchain_postgres as PGVector. Please use that class instead.

迁移时请记住:
  • The new implementation works with psycopg3, not with psycopg2 (This implementation does not work with psycopg3).

  • 过滤语法已更改为对 JSONB 元数据字段使用 $ 前缀运算符。(新实现仅对元数据使用 JSONB 字段)

  • The new implementation made some schema changes to address issues with the existing implementation. So you will need to re-create your tables and re-index your data or else carry out a manual migration.

要使用,您应该安装 `pgvector` python 包。

参数
  • connection_string (str) – Postgres 连接字符串。

  • embedding_function (Embeddings) – 任何实现 `langchain.embeddings.base.Embeddings` 接口的嵌入函数。

  • embedding_length (Optional[int]) – 嵌入向量的长度。(默认值:None)注意:这不是强制性的。定义它将阻止将任何其他大小的向量添加到嵌入表中,但是,如果没有它,则无法索引嵌入。

  • collection_name (str) – 要使用的集合的名称。(默认值:langchain)注意:这不是表的名称,而是集合的名称。表将在初始化存储时创建(如果不存在),因此,请确保用户具有创建表的正确权限。

  • distance_strategy (DistanceStrategy) – 要使用的距离策略。(默认值:COSINE)

  • pre_delete_collection (bool) – 如果为 True,则如果集合存在,将删除该集合。(默认值:False)。用于测试很有用。

  • engine_args (Optional[dict[str, Any]]) – SQLAlchemy 的创建引擎参数。

  • use_jsonb (bool) – 使用 JSONB 而不是 JSON 作为元数据。(默认值:True)强烈建议不要使用 JSON,因为它在查询时效率不高。此处提供它是为了向后兼容旧版本,并且将来会删除。

  • create_extension (bool) – 如果为 True,则如果向量扩展不存在,将创建它。在使用只读数据库时,禁用创建很有用。

  • collection_metadata (Optional[dict]) –

  • logger (Optional[logging.Logger]) –

  • relevance_score_fn (Optional[Callable[[float], float]]) –

  • connection (Optional[sqlalchemy.engine.Connection]) –

示例

from langchain_community.vectorstores import PGVector
from langchain_community.embeddings.openai import OpenAIEmbeddings

CONNECTION_STRING = "postgresql+psycopg2://hwc@localhost:5432/test3"
COLLECTION_NAME = "state_of_the_union_test"
embeddings = OpenAIEmbeddings()
vectorestore = PGVector.from_documents(
    embedding=embeddings,
    documents=docs,
    collection_name=COLLECTION_NAME,
    connection_string=CONNECTION_STRING,
    use_jsonb=True,
)

初始化 PGVector 存储。

属性

distance_strategy

embeddings

如果可用,访问查询嵌入对象。

方法

__init__(connection_string, embedding_function)

初始化 PGVector 存储。

aadd_documents(documents, **kwargs)

异步运行更多文档通过嵌入并添加到向量存储中。

aadd_texts(texts[, metadatas])

异步运行更多文本通过嵌入并添加到向量存储中。

add_documents(documents, **kwargs)

在向量存储中添加或更新文档。

add_embeddings(texts, embeddings[, ...])

将嵌入添加到向量存储中。

add_texts(texts[, metadatas, ids])

运行更多文本通过嵌入并添加到向量存储中。

adelete([ids])

通过向量 ID 或其他条件异步删除。

afrom_documents(documents, embedding, **kwargs)

异步返回从文档和嵌入初始化的 VectorStore。

afrom_texts(texts, embedding[, metadatas])

异步返回从文本和嵌入初始化的 VectorStore。

aget_by_ids(ids, /)

通过 ID 异步获取文档。

amax_marginal_relevance_search(query[, k, ...])

异步返回使用最大边际相关性选择的文档。

amax_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。

as_retriever(**kwargs)

返回从此 VectorStore 初始化的 VectorStoreRetriever。

asearch(query, search_type, **kwargs)

异步返回使用指定搜索类型与查询最相似的文档。

asimilarity_search(query[, k])

异步返回与查询最相似的文档。

asimilarity_search_by_vector(embedding[, k])

异步返回与嵌入向量最相似的文档。

asimilarity_search_with_relevance_scores(query)

异步返回范围在 [0, 1] 内的文档和相关性评分。

asimilarity_search_with_score(*args, **kwargs)

异步运行带距离的相似性搜索。

astreaming_upsert(items, /, batch_size, **kwargs)

aupsert(items, /, **kwargs)

connection_string_from_db_params(driver, ...)

从数据库参数返回连接字符串。

create_collection()

create_tables_if_not_exists()

create_vector_extension()

delete([ids, collection_only])

通过 ID 或 UUID 删除向量。

delete_collection()

drop_tables()

from_documents(documents, embedding[, ...])

返回从文档和嵌入初始化的 VectorStore。

from_embeddings(text_embeddings, embedding)

从原始文档和预生成的嵌入构造 PGVector 包装器。

from_existing_index(embedding[, ...])

获取现有 PGVector 存储的实例。此方法将返回存储的实例,而无需插入任何新嵌入。

from_texts(texts, embedding[, metadatas, ...])

返回从文本和嵌入初始化的 VectorStore。

get_by_ids(ids, /)

通过 ID 获取文档。

get_collection(session)

get_connection_string(kwargs)

max_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

max_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档

max_marginal_relevance_search_with_score(query)

返回使用带有评分的最大边际相关性选择的文档。

max_marginal_relevance_search_with_score_by_vector(...)

返回使用带有评分的最大边际相关性选择的文档

search(query, search_type, **kwargs)

返回使用指定搜索类型与查询最相似的文档。

similarity_search(query[, k, filter])

使用带距离的 PGVector 运行相似性搜索。

similarity_search_by_vector(embedding[, k, ...])

返回与嵌入向量最相似的文档。

similarity_search_with_relevance_scores(query)

返回范围在 [0, 1] 内的文档和相关性评分。

similarity_search_with_score(query[, k, filter])

返回与查询最相似的文档。

similarity_search_with_score_by_vector(embedding)

streaming_upsert(items, /, batch_size, **kwargs)

upsert(items, /, **kwargs)

__init__(connection_string: str, embedding_function: Embeddings, embedding_length: Optional[int] = None, collection_name: str = 'langchain', collection_metadata: Optional[dict] = None, distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, pre_delete_collection: bool = False, logger: Optional[Logger] = None, relevance_score_fn: Optional[Callable[[float], float]] = None, *, connection: Optional[Connection] = None, engine_args: Optional[dict[str, Any]] = None, use_jsonb: bool = False, create_extension: bool = True) None[source]

初始化 PGVector 存储。

参数
  • connection_string (str) –

  • embedding_function (Embeddings) –

  • embedding_length (Optional[int]) –

  • collection_name (str) –

  • collection_metadata (Optional[dict]) –

  • distance_strategy (DistanceStrategy) –

  • pre_delete_collection (bool) –

  • logger (Optional[Logger]) –

  • relevance_score_fn (Optional[Callable[[float], float]]) –

  • connection (Optional[Connection]) –

  • engine_args (Optional[dict[str, Any]]) –

  • use_jsonb (bool) –

  • create_extension (bool) –

返回类型

None

async aadd_documents(documents: List[Document], **kwargs: Any) List[str]

异步运行更多文档通过嵌入并添加到向量存储中。

参数
  • documents (List[Document]) – 要添加到向量存储的文档列表。

  • kwargs (Any) – 附加的关键字参数。

返回值

添加文本的 ID 列表。

引发

ValueError – 如果 ID 的数量与文档的数量不匹配。

返回类型

List[str]

async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, **kwargs: Any) List[str]

异步运行更多文本通过嵌入并添加到向量存储中。

参数
  • texts (Iterable[str]) – 要添加到向量存储的字符串的可迭代对象。

  • metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。默认为 None。

  • **kwargs (Any) – 向量存储特定的参数。

返回值

将文本添加到向量存储后返回的 ID 列表。

引发
  • ValueError – 如果元数据的数量与文本的数量不匹配。

  • ValueError – 如果 ID 的数量与文本的数量不匹配。

返回类型

List[str]

add_documents(documents: List[Document], **kwargs: Any) List[str]

在向量存储中添加或更新文档。

参数
  • documents (List[Document]) – 要添加到向量存储的文档列表。

  • kwargs (Any) – 附加的关键字参数。如果 kwargs 包含 ids 并且 documents 包含 ids,则 kwargs 中的 ids 将优先。

返回值

添加文本的 ID 列表。

引发

ValueError – 如果 ID 的数量与文档的数量不匹配。

返回类型

List[str]

add_embeddings(texts: Iterable[str], embeddings: List[List[float]], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) List[str][source]

将嵌入添加到向量存储中。

参数
  • texts (Iterable[str]) – 要添加到向量存储的字符串的可迭代对象。

  • embeddings (List[List[float]]) – 嵌入向量的列表的列表。

  • metadatas (Optional[List[dict]]) – 与文本关联的元数据列表。

  • kwargs (Any) – 向量存储特定的参数

  • ids (Optional[List[str]]) –

返回类型

List[str]

add_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) List[str][source]

运行更多文本通过嵌入并添加到向量存储中。

参数
  • texts (Iterable[str]) – 要添加到向量存储的字符串的可迭代对象。

  • metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。

  • kwargs (Any) – 向量存储特定的参数

  • ids (Optional[List[str]]) –

返回值

将文本添加到向量存储后返回的 ID 列表。

返回类型

List[str]

async adelete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool]

通过向量 ID 或其他条件异步删除。

参数
  • ids (Optional[List[str]]) – 要删除的 ID 列表。如果为 None,则删除所有 ID。默认为 None。

  • **kwargs (Any) – 子类可能使用的其他关键字参数。

返回值

如果删除成功,则返回 True,否则返回 False;如果未实现,则返回 None。

返回类型

Optional[bool]

async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST

异步返回从文档和嵌入初始化的 VectorStore。

参数
  • documents (List[Document]) – 要添加到向量存储的文档列表。

  • embedding (Embeddings) – 要使用的嵌入函数。

  • kwargs (Any) – 附加的关键字参数。

返回值

从文档和嵌入初始化的 VectorStore。

返回类型

VectorStore

async classmethod afrom_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, **kwargs: Any) VST

异步返回从文本和嵌入初始化的 VectorStore。

参数
  • texts (List[str]) – 要添加到向量存储的文本列表。

  • embedding (Embeddings) – 要使用的嵌入函数。

  • metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。默认为 None。

  • kwargs (Any) – 附加的关键字参数。

返回值

从文本和嵌入初始化的 VectorStore。

返回类型

VectorStore

async aget_by_ids(ids: Sequence[str], /) List[Document]

通过 ID 异步获取文档。

返回的文档应将 ID 字段设置为向量存储中文档的 ID。

如果某些 ID 未找到或存在重复的 ID,则返回的文档可能少于请求的数量。

用户不应假设返回文档的顺序与输入 ID 的顺序匹配。相反,用户应依赖返回文档的 ID 字段。

如果某些 ID 没有找到文档,此方法 **不应** 引发异常。

参数

ids (Sequence[str]) – 要检索的 ID 列表。

返回值

文档列表。

返回类型

List[Document]

0.2.11 版本新增。

异步返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性以及所选文档之间的多样性。

参数
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • fetch_k (int) – 要获取并传递给 MMR 算法的文档数量。默认为 20。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • kwargs (Any) –

返回值

通过最大边际相关性选择的文档列表。

返回类型

List[Document]

async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, str]] = None, **kwargs: Any) List[Document][source]

返回使用最大边际相关性选择的文档。

参数
  • embedding (List[float]) –

  • k (int) –

  • fetch_k (int) –

  • lambda_mult (float) –

  • filter (Optional[Dict[str, str]]) –

  • kwargs (Any) –

返回类型

List[Document]

as_retriever(**kwargs: Any) VectorStoreRetriever

返回从此 VectorStore 初始化的 VectorStoreRetriever。

参数

**kwargs (Any) –

传递给搜索函数的关键字参数。可以包括:search_type (Optional[str]): 定义检索器应执行的搜索类型。可以是 “similarity”(默认)、“mmr” 或 “similarity_score_threshold”。

检索器应执行的搜索类型。可以是 “similarity”(默认)、“mmr” 或 “similarity_score_threshold”。

search_kwargs (Optional[Dict]): 传递给搜索函数的关键字参数。可以包括例如
搜索函数。可以包括例如

k: 要返回的文档数量(默认值:4) score_threshold: 相似度分数阈值的最小相关性阈值

相似度分数阈值的最小相关性阈值

fetch_k: 要传递给 MMR 算法的文档数量

(默认值:20)

lambda_mult: MMR 返回结果的多样性;

1 表示最小多样性,0 表示最大多样性。(默认值:0.5)

filter: 按文档元数据筛选

返回值

VectorStore 的检索器类。

返回类型

VectorStoreRetriever

示例

# Retrieve more documents with higher diversity
# Useful if your dataset has many similar documents
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 6, 'lambda_mult': 0.25}
)

# Fetch more documents for the MMR algorithm to consider
# But only return the top 5
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 5, 'fetch_k': 50}
)

# Only retrieve documents that have a relevance score
# Above a certain threshold
docsearch.as_retriever(
    search_type="similarity_score_threshold",
    search_kwargs={'score_threshold': 0.8}
)

# Only get the single most similar document from the dataset
docsearch.as_retriever(search_kwargs={'k': 1})

# Use a filter to only retrieve documents from a specific paper
docsearch.as_retriever(
    search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}}
)
async asearch(query: str, search_type: str, **kwargs: Any) List[Document]

异步返回使用指定搜索类型与查询最相似的文档。

参数
  • query (str) – 输入文本。

  • search_type (str) – 要执行的搜索类型。可以是 “similarity”、“mmr” 或 “similarity_score_threshold”。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回值

与查询最相似的文档列表。

引发

ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。

返回类型

List[Document]

异步返回与查询最相似的文档。

参数
  • query (str) – 输入文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回值

与查询最相似的文档列表。

返回类型

List[Document]

async asimilarity_search_by_vector(embedding: List[float], k: int = 4, **kwargs: Any) List[Document]

异步返回与嵌入向量最相似的文档。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入。

  • k (int) – 要返回的文档数量。默认为 4。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回值

与查询向量最相似的文档列表。

返回类型

List[Document]

async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

异步返回范围在 [0, 1] 内的文档和相关性评分。

0 表示不相似,1 表示最相似。

参数
  • query (str) – 输入文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • **kwargs (Any) –

    要传递给相似度搜索的 kwargs。应包括:score_threshold:可选,介于 0 到 1 之间的浮点值,用于

    筛选检索到的文档结果集

返回值

(文档,相似度分数)元组的列表

返回类型

List[Tuple[Document, float]]

async asimilarity_search_with_score(*args: Any, **kwargs: Any) List[Tuple[Document, float]]

异步运行带距离的相似性搜索。

参数
  • *args (Any) – 传递给搜索方法的参数。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回值

(文档,相似度分数)元组的列表。

返回类型

List[Tuple[Document, float]]

astreaming_upsert(items: AsyncIterable[Document], /, batch_size: int, **kwargs: Any) AsyncIterator[UpsertResponse]

Beta

0.2.11 版本新增。API 可能会发生变化。

以流式方式更新文档。streaming_upsert 的异步版本。

参数
  • items (AsyncIterable[Document]) – 要添加到向量存储的文档的可迭代对象 (AsyncIterable)。

  • batch_size (int) – 批量更新的大小。

  • kwargs (Any) – 额外的关键字参数。kwargs 应该只包含所有文档通用的参数。(例如,索引超时、重试策略等)kwargs 不应包含 id 以避免语义模糊。相反,ID 应该作为 Document 对象的一部分提供。

Yields

UpsertResponse – 包含成功添加到向量存储或在向量存储中更新的 ID 列表,以及未能添加或更新的 ID 列表的响应对象。

返回类型

AsyncIterator[UpsertResponse]

0.2.11 版本新增。

async aupsert(items: Sequence[Document], /, **kwargs: Any) UpsertResponse

Beta

0.2.11 版本新增。API 可能会发生变化。

在向量存储中添加或更新文档。upsert 的异步版本。

如果提供了 Document 对象的 ID 字段,则 upsert 功能应使用该字段。如果未提供 ID,则 upsert 方法可以自由地为文档生成 ID。

当指定了 ID 并且文档已存在于向量存储中时,upsert 方法应使用新数据更新文档。如果文档不存在,则 upsert 方法应将文档添加到向量存储中。

参数
  • items (Sequence[Document]) – 要添加到向量存储的文档序列 (Sequence)。

  • kwargs (Any) – 附加的关键字参数。

返回值

包含成功添加到向量存储或在向量存储中更新的 ID 列表,以及未能添加或更新的 ID 列表的响应对象。

返回类型

UpsertResponse

0.2.11 版本新增。

classmethod connection_string_from_db_params(driver: str, host: str, port: int, database: str, user: str, password: str) str[source]

从数据库参数返回连接字符串。

参数
  • driver (str) –

  • host (str) –

  • port (int) –

  • database (str) –

  • user (str) –

  • password (str) –

返回类型

str

create_collection() None[source]
返回类型

None

create_tables_if_not_exists() None[source]
返回类型

None

create_vector_extension() None[source]
返回类型

None

delete(ids: Optional[List[str]] = None, collection_only: bool = False, **kwargs: Any) None[source]

通过 ID 或 UUID 删除向量。

参数
  • ids (Optional[List[str]]) – 要删除的 id 列表。

  • collection_only (bool) – 仅删除集合中的 id。

  • kwargs (Any) –

返回类型

None

delete_collection() None[source]
返回类型

None

drop_tables() None[source]
返回类型

None

classmethod from_documents(documents: List[Document], embedding: Embeddings, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, ids: Optional[List[str]] = None, pre_delete_collection: bool = False, *, use_jsonb: bool = False, **kwargs: Any) PGVector[source]

从文档和嵌入初始化 VectorStore 返回值。需要 Postgres 连接字符串 “可以作为参数传递,也可以设置 PGVECTOR_CONNECTION_STRING 环境变量。

参数
  • documents (List[Document]) –

  • embedding (Embeddings) –

  • collection_name (str) –

  • distance_strategy (DistanceStrategy) –

  • ids (Optional[List[str]]) –

  • pre_delete_collection (bool) –

  • use_jsonb (bool) –

  • kwargs (Any) –

返回类型

PGVector

classmethod from_embeddings(text_embeddings: List[Tuple[str, List[float]]], embedding: Embeddings, metadatas: Optional[List[dict]] = None, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, ids: Optional[List[str]] = None, pre_delete_collection: bool = False, **kwargs: Any) PGVector[source]

从原始文档和预生成的嵌入构造 PGVector 包装器。

从文档和嵌入初始化 VectorStore 返回值。需要 Postgres 连接字符串 “可以作为参数传递,也可以设置 PGVECTOR_CONNECTION_STRING 环境变量。

示例

from langchain_community.vectorstores import PGVector
from langchain_community.embeddings import OpenAIEmbeddings
embeddings = OpenAIEmbeddings()
text_embeddings = embeddings.embed_documents(texts)
text_embedding_pairs = list(zip(texts, text_embeddings))
faiss = PGVector.from_embeddings(text_embedding_pairs, embeddings)
参数
  • text_embeddings (List[Tuple[str, List[float]]]) –

  • embedding (Embeddings) –

  • metadatas (Optional[List[dict]]) –

  • collection_name (str) –

  • distance_strategy (DistanceStrategy) –

  • ids (Optional[List[str]]) –

  • pre_delete_collection (bool) –

  • kwargs (Any) –

返回类型

PGVector

classmethod from_existing_index(embedding: Embeddings, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, pre_delete_collection: bool = False, **kwargs: Any) PGVector[source]

获取现有 PGVector 存储的实例。此方法将返回存储的实例,而无需插入任何新嵌入。

参数
  • embedding (Embeddings) –

  • collection_name (str) –

  • distance_strategy (DistanceStrategy) –

  • pre_delete_collection (bool) –

  • kwargs (Any) –

返回类型

PGVector

classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, collection_name: str = 'langchain', distance_strategy: DistanceStrategy = DistanceStrategy.COSINE, ids: Optional[List[str]] = None, pre_delete_collection: bool = False, *, use_jsonb: bool = False, **kwargs: Any) PGVector[source]

从文本和嵌入初始化 VectorStore 返回值。需要 Postgres 连接字符串 “可以作为参数传递,也可以设置 PGVECTOR_CONNECTION_STRING 环境变量。

参数
  • texts (List[str]) –

  • embedding (Embeddings) –

  • metadatas (Optional[List[dict]]) –

  • collection_name (str) –

  • distance_strategy (DistanceStrategy) –

  • ids (Optional[List[str]]) –

  • pre_delete_collection (bool) –

  • use_jsonb (bool) –

  • kwargs (Any) –

返回类型

PGVector

get_by_ids(ids: Sequence[str], /) List[Document]

通过 ID 获取文档。

返回的文档应将 ID 字段设置为向量存储中文档的 ID。

如果某些 ID 未找到或存在重复的 ID,则返回的文档可能少于请求的数量。

用户不应假设返回文档的顺序与输入 ID 的顺序匹配。相反,用户应依赖返回文档的 ID 字段。

如果某些 ID 没有找到文档,此方法 **不应** 引发异常。

参数

ids (Sequence[str]) – 要检索的 ID 列表。

返回值

文档列表。

返回类型

List[Document]

0.2.11 版本新增。

get_collection(session: Session) Any[source]
参数

session (Session) –

返回类型

Any

classmethod get_connection_string(kwargs: Dict[str, Any]) str[source]
参数

kwargs (Dict[str, Any]) –

返回类型

str

返回使用最大边际相关性选择的文档。

最大边际相关性优化查询的相似性和所选文档之间的多样性。

在所选文档之间实现多样性。

参数
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • fetch_k (int) – 要获取以传递给 MMR 算法的文档数量。默认为 20。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • filter (Optional[Dict[str, str]]) – 按元数据筛选。默认为 None。

  • kwargs (Any) –

返回值

通过最大边际相关性选择的文档列表。

返回类型

List[Document]

max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, str]] = None, **kwargs: Any) List[Document][source]
返回使用最大边际相关性选择的文档

到嵌入向量。

最大边际相关性优化查询的相似性和所选文档之间的多样性。

在所选文档之间实现多样性。

参数
  • embedding (str) – 用于查找相似文档的文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • fetch_k (int) – 要获取以传递给 MMR 算法的文档数量。默认为 20。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • filter (Optional[Dict[str, str]]) – 按元数据筛选。默认为 None。

  • kwargs (Any) –

返回值

通过最大边际相关性选择的文档列表。

返回类型

List[Document]

max_marginal_relevance_search_with_score(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[dict] = None, **kwargs: Any) List[Tuple[Document, float]][source]

返回使用带有评分的最大边际相关性选择的文档。

最大边际相关性优化查询的相似性和所选文档之间的多样性。

在所选文档之间实现多样性。

参数
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • fetch_k (int) – 要获取以传递给 MMR 算法的文档数量。默认为 20。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • filter (Optional[Dict[str, str]]) – 按元数据筛选。默认为 None。

  • kwargs (Any) –

返回值

按最大边际相关性选择的文档列表,以及每个文档的分数。

与查询的相关性以及每个文档的分数。

返回类型

List[Tuple[Document, float]]

max_marginal_relevance_search_with_score_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Dict[str, str]] = None, **kwargs: Any) List[Tuple[Document, float]][source]
返回使用带有评分的最大边际相关性选择的文档

到嵌入向量。

最大边际相关性优化查询的相似性和所选文档之间的多样性。

在所选文档之间实现多样性。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入。

  • k (int) – 要返回的文档数量。默认为 4。

  • fetch_k (int) – 要获取以传递给 MMR 算法的文档数量。默认为 20。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • filter (Optional[Dict[str, str]]) – 按元数据筛选。默认为 None。

  • kwargs (Any) –

返回值

按最大边际相关性选择的文档列表,以及每个文档的分数。

与查询的相关性以及每个文档的分数。

返回类型

List[Tuple[Document, float]]

search(query: str, search_type: str, **kwargs: Any) List[Document]

返回使用指定搜索类型与查询最相似的文档。

参数
  • query (str) – 输入文本

  • search_type (str) – 要执行的搜索类型。可以是 “similarity”、“mmr” 或 “similarity_score_threshold”。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回值

与查询最相似的文档列表。

引发

ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。

返回类型

List[Document]

使用带距离的 PGVector 运行相似性搜索。

参数
  • query (str) – 要搜索的查询文本。

  • k (int) – 返回结果的数量。默认为 4。

  • filter (Optional[Dict[str, str]]) – 按元数据筛选。默认为 None。

  • kwargs (Any) –

返回值

与查询最相似的文档列表。

返回类型

List[Document]

similarity_search_by_vector(embedding: List[float], k: int = 4, filter: Optional[dict] = None, **kwargs: Any) List[Document][source]

返回与嵌入向量最相似的文档。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入。

  • k (int) – 要返回的文档数量。默认为 4。

  • filter (Optional[Dict[str, str]]) – 按元数据筛选。默认为 None。

  • kwargs (Any) –

返回值

与查询向量最相似的文档列表。

返回类型

List[Document]

similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

返回范围在 [0, 1] 内的文档和相关性评分。

0 表示不相似,1 表示最相似。

参数
  • query (str) – 输入文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • **kwargs (Any) –

    要传递给相似度搜索的 kwargs。应包括:score_threshold:可选,介于 0 到 1 之间的浮点值,用于

    过滤检索到的文档结果集。

返回值

(文档,相似度分数)元组的列表。

返回类型

List[Tuple[Document, float]]

similarity_search_with_score(query: str, k: int = 4, filter: Optional[dict] = None) List[Tuple[Document, float]][source]

返回与查询最相似的文档。

参数
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • filter (Optional[Dict[str, str]]) – 按元数据筛选。默认为 None。

返回值

返回与查询最相似的文档列表,以及每个文档的分数。

返回类型

List[Tuple[Document, float]]

similarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Optional[dict] = None) List[Tuple[Document, float]][source]
参数
  • embedding (List[float]) –

  • k (int) –

  • filter (Optional[dict]) –

返回类型

List[Tuple[Document, float]]

streaming_upsert(items: Iterable[Document], /, batch_size: int, **kwargs: Any) Iterator[UpsertResponse]

Beta

0.2.11 版本新增。API 可能会发生变化。

以流式方式插入/更新文档。

参数
  • items (Iterable[Document]) – 要添加到向量存储的文档的可迭代对象。

  • batch_size (int) – 批量更新的大小。

  • kwargs (Any) – 额外的关键字参数。 kwargs 应该只包含所有文档共有的参数。(例如,索引超时,重试策略等)kwargs 不应包含 ID 以避免语义模糊。相反,ID 应该作为 Document 对象的一部分提供。

Yields

UpsertResponse – 包含成功添加到向量存储或在向量存储中更新的 ID 列表,以及未能添加或更新的 ID 列表的响应对象。

返回类型

Iterator[UpsertResponse]

0.2.11 版本新增。

upsert(items: Sequence[Document], /, **kwargs: Any) UpsertResponse

Beta

0.2.11 版本新增。API 可能会发生变化。

在向量存储中添加或更新文档。

如果提供了 Document 对象的 ID 字段,则 upsert 功能应使用该字段。如果未提供 ID,则 upsert 方法可以自由地为文档生成 ID。

当指定了 ID 并且文档已存在于向量存储中时,upsert 方法应使用新数据更新文档。如果文档不存在,则 upsert 方法应将文档添加到向量存储中。

参数
  • items (Sequence[Document]) – 要添加到向量存储的文档序列 (Sequence)。

  • kwargs (Any) – 附加的关键字参数。

返回值

包含成功添加到向量存储或在向量存储中更新的 ID 列表,以及未能添加或更新的 ID 列表的响应对象。

返回类型

UpsertResponse

0.2.11 版本新增。

使用 PGVector 的示例