langchain_community.vectorstores.faiss.FAISS

class langchain_community.vectorstores.faiss.FAISS(embedding_function: Union[Callable[[str], List[float]]], Embeddings], index: Any, docstore: Docstore, index_to_docstore_id: Dict[int, str], relevance_score_fn: Optional[Callable[[float], float]] = None, normalize_L2: bool = False, distance_strategy: DistanceStrategy = DistanceStrategy.EUCLIDEAN_DISTANCE)[source]

Meta Faiss 向量数据库。

要使用,您必须安装 faiss python 包。

示例

from langchain_community.embeddings.openai import OpenAIEmbeddings
from langchain_community.vectorstores import FAISS

embeddings = OpenAIEmbeddings()
texts = ["FAISS is an important library", "LangChain supports FAISS"]
faiss = FAISS.from_texts(texts, embeddings)

使用必要的组件初始化。

属性

embeddings

如果可用,访问查询嵌入对象。

方法

__init__(embedding_function, index, ...[, ...])

使用必要的组件初始化。

aadd_documents(documents, **kwargs)

异步地通过嵌入运行更多文档并添加到向量数据库。

aadd_texts(texts[, metadatas, ids])

通过嵌入运行更多文本并添加到向量数据库

add_documents(documents, **kwargs)

在向量数据库中添加或更新文档。

add_embeddings(text_embeddings[, metadatas, ids])

将给定的文本和嵌入添加到向量数据库。

add_texts(texts[, metadatas, ids])

通过嵌入运行更多文本并添加到向量数据库。

adelete([ids])

异步地按向量 ID 或其他条件删除。

afrom_documents(documents, embedding, **kwargs)

异步地从文档和嵌入初始化并返回 VectorStore。

afrom_embeddings(text_embeddings, embedding)

异步地从原始文档构建 FAISS 包装器。

afrom_texts(texts, embedding[, metadatas, ids])

异步地从原始文档构建 FAISS 包装器。

aget_by_ids(ids, /)

异步地按 ID 获取文档。

amax_marginal_relevance_search(query[, k, ...])

异步地返回使用最大边际相关性选择的文档。

amax_marginal_relevance_search_by_vector(...)

异步地返回使用最大边际相关性选择的文档。

amax_marginal_relevance_search_with_score_by_vector(...)

返回文档及其相似度评分,这些文档使用最大边际

as_retriever(**kwargs)

从这个 VectorStore 初始化并返回 VectorStoreRetriever。

asearch(query, search_type, **kwargs)

异步地返回与查询最相似的文档,使用指定的搜索类型。

asimilarity_search(query[, k, filter, fetch_k])

异步地返回与查询最相似的文档。

asimilarity_search_by_vector(embedding[, k, ...])

异步地返回与嵌入向量最相似的文档。

asimilarity_search_with_relevance_scores(query)

异步地返回文档和 [0, 1] 范围内的相关性评分。

asimilarity_search_with_score(query[, k, ...])

异步地返回与查询最相似的文档。

asimilarity_search_with_score_by_vector(...)

异步地返回与查询最相似的文档。

astreaming_upsert(items, /, batch_size, **kwargs)

aupsert(items, /, **kwargs)

delete([ids])

按 ID 删除。

deserialize_from_bytes(serialized, embeddings, *)

从字节反序列化 FAISS 索引、文档存储和 index_to_docstore_id。

from_documents(documents, embedding, **kwargs)

从文档和嵌入初始化并返回 VectorStore。

from_embeddings(text_embeddings, embedding)

从原始文档构建 FAISS 包装器。

from_texts(texts, embedding[, metadatas, ids])

从原始文档构建 FAISS 包装器。

get_by_ids(ids, /)

按 ID 获取文档。

load_local(folder_path, embeddings[, ...])

从磁盘加载 FAISS 索引、文档存储和 index_to_docstore_id。

max_marginal_relevance_search(query[, k, ...])

返回使用最大边际相关性选择的文档。

max_marginal_relevance_search_by_vector(...)

返回使用最大边际相关性选择的文档。

max_marginal_relevance_search_with_score_by_vector(...)

返回文档及其相似度评分,这些文档使用最大边际

merge_from(target)

将另一个 FAISS 对象与当前对象合并。

save_local(folder_path[, index_name])

将 FAISS 索引、文档存储和 index_to_docstore_id 保存到磁盘。

search(query, search_type, **kwargs)

返回与查询最相似的文档,使用指定的搜索类型。

serialize_to_bytes()

将 FAISS 索引、文档存储和 index_to_docstore_id 序列化为字节。

similarity_search(query[, k, filter, fetch_k])

返回与查询最相似的文档。

similarity_search_by_vector(embedding[, k, ...])

返回与嵌入向量最相似的文档。

similarity_search_with_relevance_scores(query)

返回文档和 [0, 1] 范围内的相关性评分。

similarity_search_with_score(query[, k, ...])

返回与查询最相似的文档。

similarity_search_with_score_by_vector(embedding)

返回与查询最相似的文档。

streaming_upsert(items, /, batch_size, **kwargs)

upsert(items, /, **kwargs)

参数
  • embedding_function (Union[Callable[[str], List[float]], Embeddings]) –

  • index (Any) –

  • docstore (Docstore) –

  • index_to_docstore_id (Dict[int, str]) –

  • relevance_score_fn (Optional[Callable[[float], float]]) –

  • normalize_L2 (bool) –

  • distance_strategy (DistanceStrategy) –

__init__(embedding_function: Union[Callable[[str], List[float]]], Embeddings], index: Any, docstore: Docstore, index_to_docstore_id: Dict[int, str], relevance_score_fn: Optional[Callable[[float], float]] = None, normalize_L2: bool = False, distance_strategy: DistanceStrategy = DistanceStrategy.EUCLIDEAN_DISTANCE)[source]

使用必要的组件初始化。

参数
  • embedding_function (Union[Callable[[str], List[float]], Embeddings]) –

  • index (Any) –

  • docstore (Docstore) –

  • index_to_docstore_id (Dict[int, str]) –

  • relevance_score_fn (Optional[Callable[[float], float]]) –

  • normalize_L2 (bool) –

  • distance_strategy (DistanceStrategy) –

async aadd_documents(documents: List[Document], **kwargs: Any) List[str]

异步地通过嵌入运行更多文档并添加到向量数据库。

参数
  • documents (List[Document]) – 要添加到向量数据库的文档列表。

  • kwargs (Any) – 额外的关键字参数。

返回

添加的文本的 ID 列表。

抛出

ValueError – 如果 ID 数量与文档数量不匹配。

返回类型

List[str]

async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) List[str][source]
通过嵌入运行更多文本并添加到向量数据库

异步地。

参数
  • texts (Iterable[str]) – 要添加到向量数据库的字符串迭代器。

  • metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。

  • ids (Optional[List[str]]) – 可选的唯一 ID 列表。

  • kwargs (Any) –

返回

从将文本添加到向量数据库中获得的 ID 列表。

返回类型

List[str]

add_documents(documents: List[Document], **kwargs: Any) List[str]

在向量数据库中添加或更新文档。

参数
  • documents (List[Document]) – 要添加到向量数据库的文档列表。

  • kwargs (Any) – 额外的关键字参数。如果 kwargs 包含 ids 并且 documents 包含 ids,则 kwargs 中的 ids 将优先。

返回

添加的文本的 ID 列表。

抛出

ValueError – 如果 ids 的数量与文档的数量不匹配。

返回类型

List[str]

add_embeddings(text_embeddings: Iterable[Tuple[str, List[float]]], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) List[str][source]

将给定的文本和嵌入添加到向量数据库。

参数
  • text_embeddings (Iterable[Tuple[str, List[float]]]) – 要添加到向量数据库的字符串和嵌入对的迭代器。

  • metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。

  • ids (Optional[List[str]]) – 可选的唯一 ID 列表。

  • kwargs (Any) –

返回

从将文本添加到向量数据库中获得的 ID 列表。

返回类型

List[str]

add_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) List[str][source]

通过嵌入运行更多文本并添加到向量数据库。

参数
  • texts (Iterable[str]) – 要添加到向量数据库的字符串迭代器。

  • metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。

  • ids (Optional[List[str]]) – 可选的唯一 ID 列表。

  • kwargs (Any) –

返回

从将文本添加到向量数据库中获得的 ID 列表。

返回类型

List[str]

async adelete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool]

异步地按向量 ID 或其他条件删除。

参数
  • ids (Optional[List[str]]) – 要删除的 ID 列表。如果为 None,则删除全部。默认为 None。

  • **kwargs (Any) – 子类可能使用的其他关键字参数。

返回

如果删除成功,则返回 True,否则返回 False,如果未实现,则返回 None。

返回类型

Optional[bool]

async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST

异步地从文档和嵌入初始化并返回 VectorStore。

参数
  • documents (List[Document]) – 要添加到向量数据库的文档列表。

  • embedding (Embeddings) – 要使用的嵌入函数。

  • kwargs (Any) – 额外的关键字参数。

返回

从文档和嵌入初始化的 VectorStore。

返回类型

VectorStore

async classmethod afrom_embeddings(text_embeddings: Iterable[Tuple[str, List[float]]], embedding: Embeddings, metadatas: Optional[Iterable[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) FAISS[source]

异步地从原始文档构建 FAISS 包装器。

参数
  • text_embeddings (Iterable[Tuple[str, List[float]]]) –

  • embedding (Embeddings) –

  • metadatas (Optional[Iterable[dict]]) –

  • ids (Optional[List[str]]) –

  • kwargs (Any) –

返回类型

FAISS

async classmethod afrom_texts(texts: list[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) FAISS[source]

异步地从原始文档构建 FAISS 包装器。

这是一个用户友好的界面,用于
  1. 嵌入文档。

  2. 创建内存文档存储

  3. 初始化 FAISS 数据库

旨在作为快速入门的方式。

示例

from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import OpenAIEmbeddings

embeddings = OpenAIEmbeddings()
faiss = await FAISS.afrom_texts(texts, embeddings)
参数
  • texts (list[str]) –

  • embedding (Embeddings) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • kwargs (Any) –

返回类型

FAISS

async aget_by_ids(ids: Sequence[str], /) List[Document]

异步地按 ID 获取文档。

返回的文档应将 ID 字段设置为向量存储中文档的 ID。

如果某些 ID 未找到或存在重复 ID,则返回的文档可能少于请求的文档。

用户不应假设返回文档的顺序与输入 ID 的顺序匹配。相反,用户应依赖返回文档的 ID 字段。

如果某些 ID 没有找到文档,此方法**不应**引发异常。

参数

ids (Sequence[str]) – 要检索的 ID 列表。

返回

文档列表。

返回类型

List[Document]

0.2.11 版本新增。

异步地返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性以及所选文档之间的多样性。

参数
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • fetch_k (int) – 在过滤(如果需要)之前要获取的文档数量,以传递给 MMR 算法。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

  • kwargs (Any) –

返回

通过最大边际相关性选择的文档列表。

返回类型

List[Document]

async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Union[Callable, Dict[str, Any]]] = None, **kwargs: Any) List[Document][source]

异步地返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性以及所选文档之间的多样性。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入向量。

  • k (int) – 要返回的文档数量。默认为 4。

  • fetch_k (int) – 在过滤之前要获取的文档数量,以传递给 MMR 算法。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

  • kwargs (Any) –

返回

通过最大边际相关性选择的文档列表。

返回类型

List[Document]

async amax_marginal_relevance_search_with_score_by_vector(embedding: List[float], *, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Union[Callable, Dict[str, Any]]] = None) List[Tuple[Document, float]][source]
返回文档及其相似度评分,这些文档使用最大边际

异步地计算最大边际相关性。

最大边际相关性优化了与查询的相似性以及所选文档之间的多样性。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入向量。

  • k (int) – 要返回的文档数量。默认为 4。

  • fetch_k (int) – 在过滤之前要获取的文档数量,以传递给 MMR 算法。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

返回

通过最大边际相关性选择的文档列表和相似度分数

以及每个文档的分数。

返回类型

List[Tuple[Document, float]]

as_retriever(**kwargs: Any) VectorStoreRetriever

从这个 VectorStore 初始化并返回 VectorStoreRetriever。

参数

**kwargs (Any) –

传递给搜索函数的关键字参数。可以包括:search_type (Optional[str]):定义检索器应执行的搜索类型。

可以是 “similarity”(默认)、“mmr” 或 “similarity_score_threshold”。

search_kwargs (Optional[Dict]):传递给
搜索函数的关键字参数。可以包括如下内容:

k:要返回的文档数量(默认值:4) score_threshold:相似度分数阈值的最小相关性阈值

用于 similarity_score_threshold

fetch_k:传递给 MMR 算法的文档数量

(默认值:20)

lambda_mult:MMR 返回结果的多样性;

1 表示最小多样性,0 表示最大多样性。(默认值:0.5)

filter:按文档元数据过滤

返回

VectorStore 的检索器类。

返回类型

VectorStoreRetriever

示例

# Retrieve more documents with higher diversity
# Useful if your dataset has many similar documents
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 6, 'lambda_mult': 0.25}
)

# Fetch more documents for the MMR algorithm to consider
# But only return the top 5
docsearch.as_retriever(
    search_type="mmr",
    search_kwargs={'k': 5, 'fetch_k': 50}
)

# Only retrieve documents that have a relevance score
# Above a certain threshold
docsearch.as_retriever(
    search_type="similarity_score_threshold",
    search_kwargs={'score_threshold': 0.8}
)

# Only get the single most similar document from the dataset
docsearch.as_retriever(search_kwargs={'k': 1})

# Use a filter to only retrieve documents from a specific paper
docsearch.as_retriever(
    search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}}
)
async asearch(query: str, search_type: str, **kwargs: Any) List[Document]

异步地返回与查询最相似的文档,使用指定的搜索类型。

参数
  • query (str) – 输入文本。

  • search_type (str) – 要执行的搜索类型。可以是 “similarity”、“mmr” 或 “similarity_score_threshold”。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

与查询最相似的文档列表。

抛出

ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。

返回类型

List[Document]

异步地返回与查询最相似的文档。

参数
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • filter (Optional[Union[Callable, Dict[str, Any]]]) – (Optional[Dict[str, str]]): 按元数据过滤。默认为 None。

  • fetch_k (int) – (Optional[int]) 过滤前要获取的文档数量。默认为 20。

  • kwargs (Any) –

返回

与查询最相似的文档列表。

返回类型

List[Document]

async asimilarity_search_by_vector(embedding: List[float], k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: int = 20, **kwargs: Any) List[Document][source]

异步地返回与嵌入向量最相似的文档。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入向量。

  • k (int) – 要返回的文档数量。默认为 4。

  • filter (Optional[Dict[str, str]]) – 按元数据过滤。默认为 None。如果为可调用对象,则它必须将 Document 的元数据字典作为输入并返回一个布尔值。

  • fetch_k (int) – (Optional[int]) 过滤前要获取的文档数量。默认为 20。

  • kwargs (Any) –

返回

与嵌入向量最相似的文档列表。

返回类型

List[Document]

async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

异步地返回文档和 [0, 1] 范围内的相关性评分。

0 表示不相似,1 表示最相似。

参数
  • query (str) – 输入文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • **kwargs (Any) –

    要传递给相似度搜索的 kwargs。应包括:score_threshold:可选,介于 0 到 1 之间的浮点值,用于

    过滤检索到的文档结果集

返回

元组列表 (doc, similarity_score)

返回类型

List[Tuple[Document, float]]

async asimilarity_search_with_score(query: str, k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]][source]

异步地返回与查询最相似的文档。

参数
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • filter (Optional[Dict[str, str]]) – 按元数据过滤。默认为 None。如果为可调用对象,则它必须将 Document 的元数据字典作为输入并返回一个布尔值。

  • fetch_k (int) – (Optional[int]) 过滤前要获取的文档数量。默认为 20。

  • kwargs (Any) –

返回

与查询文本最相似的文档列表,带有 float 类型的 L2 距离。分数越低表示相似度越高。

返回类型

List[Tuple[Document, float]]

async asimilarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]][source]

异步地返回与查询最相似的文档。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入向量。

  • k (int) – 要返回的文档数量。默认为 4。

  • filter (Optional[Dict[str, Any]]) – 按元数据过滤。默认为 None。如果为可调用对象,则它必须将 Document 的元数据字典作为输入并返回一个布尔值。

  • fetch_k (int) – (Optional[int]) 过滤前要获取的文档数量。默认为 20。

  • **kwargs (Any) –

    要传递给相似度搜索的 kwargs。可以包括:score_threshold:可选,介于 0 到 1 之间的浮点值,用于

    过滤检索到的文档结果集

返回

与查询文本最相似的文档列表,以及每个文档的 float 类型的 L2 距离。分数越低表示相似度越高。

返回类型

List[Tuple[Document, float]]

astreaming_upsert(items: AsyncIterable[Document], /, batch_size: int, **kwargs: Any) AsyncIterator[UpsertResponse]

Beta 版本

在 0.2.11 版本中添加。API 可能会发生变化。

以流式方式更新文档。streaming_upsert 的异步版本。

参数
  • items (AsyncIterable[Document]) – 要添加到向量存储的文档的可迭代对象。

  • batch_size (int) – 每次更新批处理的大小。

  • kwargs (Any) – 额外的关键字参数。kwargs 应仅包括所有文档通用的参数。(例如,索引超时、重试策略等)kwargs 不应包括 ids 以避免语义不明确。相反,ID 应作为 Document 对象的一部分提供。

Yields

UpsertResponse – 响应对象,其中包含向量存储中成功添加或更新的 ID 列表,以及添加或更新失败的 ID 列表。

返回类型

AsyncIterator[UpsertResponse]

0.2.11 版本新增。

async aupsert(items: Sequence[Document], /, **kwargs: Any) UpsertResponse

Beta 版本

在 0.2.11 版本中添加。API 可能会发生变化。

在向量存储中添加或更新文档。`upsert` 的异步版本。

`upsert` 功能应该利用 `Document` 对象的 ID 字段(如果已提供)。如果未提供 ID,则 `upsert` 方法可以自由地为文档生成 ID。

当指定了 ID 并且文档已存在于向量存储中时,`upsert` 方法应该使用新数据更新文档。如果文档不存在,则 `upsert` 方法应该将文档添加到向量存储中。

参数
  • items (Sequence[Document]) – 要添加到向量存储的文档序列。

  • kwargs (Any) – 额外的关键字参数。

返回

一个响应对象,其中包含已成功在向量存储中添加或更新的 ID 列表,以及添加或更新失败的 ID 列表。

返回类型

UpsertResponse

0.2.11 版本新增。

delete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool][source]

通过 ID 删除。这些是向量存储中的 ID。

参数
  • ids (Optional[List[str]]) – 要删除的 ID 列表。

  • kwargs (Any) –

返回

如果删除成功,则返回 True,否则返回 False,如果未实现,则返回 None。

返回类型

Optional[bool]

classmethod deserialize_from_bytes(serialized: bytes, embeddings: Embeddings, *, allow_dangerous_deserialization: bool = False, **kwargs: Any) FAISS[source]

从字节反序列化 FAISS 索引、文档存储和 index_to_docstore_id。

参数
  • serialized (bytes) –

  • embeddings (Embeddings) –

  • allow_dangerous_deserialization (bool) –

  • kwargs (Any) –

返回类型

FAISS

classmethod from_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST

从文档和嵌入初始化并返回 VectorStore。

参数
  • documents (List[Document]) – 要添加到向量数据库的文档列表。

  • embedding (Embeddings) – 要使用的嵌入函数。

  • kwargs (Any) – 额外的关键字参数。

返回

从文档和嵌入初始化的 VectorStore。

返回类型

VectorStore

classmethod from_embeddings(text_embeddings: Iterable[Tuple[str, List[float]]], embedding: Embeddings, metadatas: Optional[Iterable[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) FAISS[source]

从原始文档构建 FAISS 包装器。

这是一个用户友好的界面,用于
  1. 嵌入文档。

  2. 创建内存文档存储

  3. 初始化 FAISS 数据库

旨在作为快速入门的方式。

示例

from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import OpenAIEmbeddings

embeddings = OpenAIEmbeddings()
text_embeddings = embeddings.embed_documents(texts)
text_embedding_pairs = zip(texts, text_embeddings)
faiss = FAISS.from_embeddings(text_embedding_pairs, embeddings)
参数
  • text_embeddings (Iterable[Tuple[str, List[float]]]) –

  • embedding (Embeddings) –

  • metadatas (Optional[Iterable[dict]]) –

  • ids (Optional[List[str]]) –

  • kwargs (Any) –

返回类型

FAISS

classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) FAISS[source]

从原始文档构建 FAISS 包装器。

这是一个用户友好的界面,用于
  1. 嵌入文档。

  2. 创建内存文档存储

  3. 初始化 FAISS 数据库

旨在作为快速入门的方式。

示例

from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import OpenAIEmbeddings

embeddings = OpenAIEmbeddings()
faiss = FAISS.from_texts(texts, embeddings)
参数
  • texts (List[str]) –

  • embedding (Embeddings) –

  • metadatas (Optional[List[dict]]) –

  • ids (Optional[List[str]]) –

  • kwargs (Any) –

返回类型

FAISS

get_by_ids(ids: Sequence[str], /) List[Document]

按 ID 获取文档。

返回的文档应将 ID 字段设置为向量存储中文档的 ID。

如果某些 ID 未找到或存在重复 ID,则返回的文档可能少于请求的文档。

用户不应假设返回文档的顺序与输入 ID 的顺序匹配。相反,用户应依赖返回文档的 ID 字段。

如果某些 ID 没有找到文档,此方法**不应**引发异常。

参数

ids (Sequence[str]) – 要检索的 ID 列表。

返回

文档列表。

返回类型

List[Document]

0.2.11 版本新增。

classmethod load_local(folder_path: str, embeddings: Embeddings, index_name: str = 'index', *, allow_dangerous_deserialization: bool = False, **kwargs: Any) FAISS[source]

从磁盘加载 FAISS 索引、文档存储和 index_to_docstore_id。

参数
  • folder_path (str) – 从文件夹路径加载索引、文档存储和 index_to_docstore_id。

  • embeddings (Embeddings) – 生成查询时使用的 Embeddings。

  • index_name (str) – 用于使用特定索引文件名保存。

  • allow_dangerous_deserialization (bool) – 是否允许反序列化数据,这涉及到加载 pickle 文件。 Pickle 文件可能被恶意行为者修改,以传递恶意负载,从而导致在您的机器上执行任意代码。

  • kwargs (Any) –

返回类型

FAISS

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性以及所选文档之间的多样性。

参数
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • fetch_k (int) – 在过滤(如果需要)之前要获取的文档数量,以传递给 MMR 算法。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

  • kwargs (Any) –

返回

通过最大边际相关性选择的文档列表。

返回类型

List[Document]

max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Union[Callable, Dict[str, Any]]] = None, **kwargs: Any) List[Document][source]

返回使用最大边际相关性选择的文档。

最大边际相关性优化了与查询的相似性以及所选文档之间的多样性。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入向量。

  • k (int) – 要返回的文档数量。默认为 4。

  • fetch_k (int) – 在过滤之前要获取的文档数量,以传递给 MMR 算法。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

  • kwargs (Any) –

返回

通过最大边际相关性选择的文档列表。

返回类型

List[Document]

max_marginal_relevance_search_with_score_by_vector(embedding: List[float], *, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Union[Callable, Dict[str, Any]]] = None) List[Tuple[Document, float]][source]
返回文档及其相似度评分,这些文档使用最大边际

相关性。

最大边际相关性优化了与查询的相似性以及所选文档之间的多样性。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入向量。

  • k (int) – 要返回的文档数量。默认为 4。

  • fetch_k (int) – 在过滤之前要获取的文档数量,以传递给 MMR 算法。

  • lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。

  • filter (Optional[Union[Callable, Dict[str, Any]]]) –

返回

通过最大边际相关性选择的文档列表和相似度分数

以及每个文档的分数。

返回类型

List[Tuple[Document, float]]

merge_from(target: FAISS) None[source]

将另一个 FAISS 对象与当前对象合并。

将目标 FAISS 添加到当前的 FAISS 中。

参数

target (FAISS) – 您希望合并到当前 FAISS 对象中的目标 FAISS 对象。

返回

None.

返回类型

None

save_local(folder_path: str, index_name: str = 'index') None[source]

将 FAISS 索引、文档存储和 index_to_docstore_id 保存到磁盘。

参数
  • folder_path (str) – 用于保存索引、文档存储和 index_to_docstore_id 的文件夹路径。

  • index_name (str) – 用于使用特定索引文件名保存。

返回类型

None

search(query: str, search_type: str, **kwargs: Any) List[Document]

返回与查询最相似的文档,使用指定的搜索类型。

参数
  • query (str) – 输入文本

  • search_type (str) – 要执行的搜索类型。可以是 “similarity”、“mmr” 或 “similarity_score_threshold”。

  • **kwargs (Any) – 传递给搜索方法的参数。

返回

与查询最相似的文档列表。

抛出

ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。

返回类型

List[Document]

serialize_to_bytes() bytes[source]

将 FAISS 索引、文档存储和 index_to_docstore_id 序列化为字节。

返回类型

bytes

返回与查询最相似的文档。

参数
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • filter (Optional[Union[Callable, Dict[str, Any]]]) – (Optional[Dict[str, str]]): 按元数据过滤。默认为 None。

  • fetch_k (int) – (Optional[int]) 过滤前要获取的文档数量。默认为 20。

  • kwargs (Any) –

返回

与查询最相似的文档列表。

返回类型

List[Document]

similarity_search_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None, fetch_k: int = 20, **kwargs: Any) List[Document][source]

返回与嵌入向量最相似的文档。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入向量。

  • k (int) – 要返回的文档数量。默认为 4。

  • filter (Optional[Dict[str, str]]) – 按元数据过滤。默认为 None。如果为可调用对象,则它必须将 Document 的元数据字典作为输入并返回一个布尔值。

  • fetch_k (int) – (Optional[int]) 过滤前要获取的文档数量。默认为 20。

  • kwargs (Any) –

返回

与嵌入向量最相似的文档列表。

返回类型

List[Document]

similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]]

返回文档和 [0, 1] 范围内的相关性评分。

0 表示不相似,1 表示最相似。

参数
  • query (str) – 输入文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • **kwargs (Any) –

    要传递给相似度搜索的 kwargs。应包括:score_threshold:可选,介于 0 到 1 之间的浮点值,用于

    过滤检索到的文档结果集。

返回

元组列表,包含 (doc, similarity_score)。

返回类型

List[Tuple[Document, float]]

similarity_search_with_score(query: str, k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]][source]

返回与查询最相似的文档。

参数
  • query (str) – 用于查找相似文档的文本。

  • k (int) – 要返回的文档数量。默认为 4。

  • filter (Optional[Dict[str, str]]) – 按元数据过滤。默认为 None。如果为可调用对象,则它必须将 Document 的元数据字典作为输入并返回一个布尔值。

  • fetch_k (int) – (Optional[int]) 过滤前要获取的文档数量。默认为 20。

  • kwargs (Any) –

返回

与查询文本最相似的文档列表,带有 float 类型的 L2 距离。分数越低表示相似度越高。

返回类型

List[Tuple[Document, float]]

similarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]][source]

返回与查询最相似的文档。

参数
  • embedding (List[float]) – 用于查找相似文档的嵌入向量。

  • k (int) – 要返回的文档数量。默认为 4。

  • filter (Optional[Union[Callable, Dict[str, Any]]]) – 按元数据过滤。默认为 None。如果为可调用对象,则它必须将 Document 的元数据字典作为输入并返回一个布尔值。

  • fetch_k (int) – (Optional[int]) 过滤前要获取的文档数量。默认为 20。

  • **kwargs (Any) –

    要传递给相似度搜索的 kwargs。可以包括:score_threshold:可选,介于 0 到 1 之间的浮点值,用于

    过滤检索到的文档结果集

返回

与查询文本最相似的文档列表,以及每个文档的 float 类型的 L2 距离。分数越低表示相似度越高。

返回类型

List[Tuple[Document, float]]

streaming_upsert(items: Iterable[Document], /, batch_size: int, **kwargs: Any) Iterator[UpsertResponse]

Beta 版本

在 0.2.11 版本中添加。API 可能会发生变化。

以流式方式更新文档。

参数
  • items (Iterable[Document]) – 要添加到向量存储的可迭代 Document。

  • batch_size (int) – 每次更新批处理的大小。

  • kwargs (Any) – 额外的关键字参数。kwargs 应仅包含所有文档通用的参数。(例如,索引超时、重试策略等)kwargs 不应包含 ids 以避免语义模糊。相反,ID 应作为 Document 对象的一部分提供。

Yields

UpsertResponse – 响应对象,其中包含向量存储中成功添加或更新的 ID 列表,以及添加或更新失败的 ID 列表。

返回类型

Iterator[UpsertResponse]

0.2.11 版本新增。

upsert(items: Sequence[Document], /, **kwargs: Any) UpsertResponse

Beta 版本

在 0.2.11 版本中添加。API 可能会发生变化。

在向量数据库中添加或更新文档。

`upsert` 功能应该利用 `Document` 对象的 ID 字段(如果已提供)。如果未提供 ID,则 `upsert` 方法可以自由地为文档生成 ID。

当指定了 ID 并且文档已存在于向量存储中时,`upsert` 方法应该使用新数据更新文档。如果文档不存在,则 `upsert` 方法应该将文档添加到向量存储中。

参数
  • items (Sequence[Document]) – 要添加到向量存储的文档序列。

  • kwargs (Any) – 额外的关键字参数。

返回

一个响应对象,其中包含已成功在向量存储中添加或更新的 ID 列表,以及添加或更新失败的 ID 列表。

返回类型

UpsertResponse

0.2.11 版本新增。

FAISS 的使用示例