langchain_community.vectorstores.faiss
.FAISS¶
- class langchain_community.vectorstores.faiss.FAISS(embedding_function: Union[Callable[[str], List[float]]], Embeddings], index: Any, docstore: Docstore, index_to_docstore_id: Dict[int, str], relevance_score_fn: Optional[Callable[[float], float]] = None, normalize_L2: bool = False, distance_strategy: DistanceStrategy = DistanceStrategy.EUCLIDEAN_DISTANCE)[source]¶
Meta Faiss 向量数据库。
要使用,您必须安装
faiss
python 包。示例
from langchain_community.embeddings.openai import OpenAIEmbeddings from langchain_community.vectorstores import FAISS embeddings = OpenAIEmbeddings() texts = ["FAISS is an important library", "LangChain supports FAISS"] faiss = FAISS.from_texts(texts, embeddings)
使用必要的组件初始化。
属性
embeddings
如果可用,访问查询嵌入对象。
方法
__init__
(embedding_function, index, ...[, ...])使用必要的组件初始化。
aadd_documents
(documents, **kwargs)异步地通过嵌入运行更多文档并添加到向量数据库。
aadd_texts
(texts[, metadatas, ids])通过嵌入运行更多文本并添加到向量数据库
add_documents
(documents, **kwargs)在向量数据库中添加或更新文档。
add_embeddings
(text_embeddings[, metadatas, ids])将给定的文本和嵌入添加到向量数据库。
add_texts
(texts[, metadatas, ids])通过嵌入运行更多文本并添加到向量数据库。
adelete
([ids])异步地按向量 ID 或其他条件删除。
afrom_documents
(documents, embedding, **kwargs)异步地从文档和嵌入初始化并返回 VectorStore。
afrom_embeddings
(text_embeddings, embedding)异步地从原始文档构建 FAISS 包装器。
afrom_texts
(texts, embedding[, metadatas, ids])异步地从原始文档构建 FAISS 包装器。
aget_by_ids
(ids, /)异步地按 ID 获取文档。
amax_marginal_relevance_search
(query[, k, ...])异步地返回使用最大边际相关性选择的文档。
异步地返回使用最大边际相关性选择的文档。
返回文档及其相似度评分,这些文档使用最大边际
as_retriever
(**kwargs)从这个 VectorStore 初始化并返回 VectorStoreRetriever。
asearch
(query, search_type, **kwargs)异步地返回与查询最相似的文档,使用指定的搜索类型。
asimilarity_search
(query[, k, filter, fetch_k])异步地返回与查询最相似的文档。
asimilarity_search_by_vector
(embedding[, k, ...])异步地返回与嵌入向量最相似的文档。
异步地返回文档和 [0, 1] 范围内的相关性评分。
asimilarity_search_with_score
(query[, k, ...])异步地返回与查询最相似的文档。
异步地返回与查询最相似的文档。
astreaming_upsert
(items, /, batch_size, **kwargs)aupsert
(items, /, **kwargs)delete
([ids])按 ID 删除。
deserialize_from_bytes
(serialized, embeddings, *)从字节反序列化 FAISS 索引、文档存储和 index_to_docstore_id。
from_documents
(documents, embedding, **kwargs)从文档和嵌入初始化并返回 VectorStore。
from_embeddings
(text_embeddings, embedding)从原始文档构建 FAISS 包装器。
from_texts
(texts, embedding[, metadatas, ids])从原始文档构建 FAISS 包装器。
get_by_ids
(ids, /)按 ID 获取文档。
load_local
(folder_path, embeddings[, ...])从磁盘加载 FAISS 索引、文档存储和 index_to_docstore_id。
max_marginal_relevance_search
(query[, k, ...])返回使用最大边际相关性选择的文档。
返回使用最大边际相关性选择的文档。
返回文档及其相似度评分,这些文档使用最大边际
merge_from
(target)将另一个 FAISS 对象与当前对象合并。
save_local
(folder_path[, index_name])将 FAISS 索引、文档存储和 index_to_docstore_id 保存到磁盘。
search
(query, search_type, **kwargs)返回与查询最相似的文档,使用指定的搜索类型。
将 FAISS 索引、文档存储和 index_to_docstore_id 序列化为字节。
similarity_search
(query[, k, filter, fetch_k])返回与查询最相似的文档。
similarity_search_by_vector
(embedding[, k, ...])返回与嵌入向量最相似的文档。
返回文档和 [0, 1] 范围内的相关性评分。
similarity_search_with_score
(query[, k, ...])返回与查询最相似的文档。
similarity_search_with_score_by_vector
(embedding)返回与查询最相似的文档。
streaming_upsert
(items, /, batch_size, **kwargs)upsert
(items, /, **kwargs)- 参数
embedding_function (Union[Callable[[str], List[float]], Embeddings]) –
index (Any) –
docstore (Docstore) –
index_to_docstore_id (Dict[int, str]) –
relevance_score_fn (Optional[Callable[[float], float]]) –
normalize_L2 (bool) –
distance_strategy (DistanceStrategy) –
- __init__(embedding_function: Union[Callable[[str], List[float]]], Embeddings], index: Any, docstore: Docstore, index_to_docstore_id: Dict[int, str], relevance_score_fn: Optional[Callable[[float], float]] = None, normalize_L2: bool = False, distance_strategy: DistanceStrategy = DistanceStrategy.EUCLIDEAN_DISTANCE)[source]¶
使用必要的组件初始化。
- 参数
embedding_function (Union[Callable[[str], List[float]], Embeddings]) –
index (Any) –
docstore (Docstore) –
index_to_docstore_id (Dict[int, str]) –
relevance_score_fn (Optional[Callable[[float], float]]) –
normalize_L2 (bool) –
distance_strategy (DistanceStrategy) –
- async aadd_documents(documents: List[Document], **kwargs: Any) List[str] ¶
异步地通过嵌入运行更多文档并添加到向量数据库。
- 参数
documents (List[Document]) – 要添加到向量数据库的文档列表。
kwargs (Any) – 额外的关键字参数。
- 返回
添加的文本的 ID 列表。
- 抛出
ValueError – 如果 ID 数量与文档数量不匹配。
- 返回类型
List[str]
- async aadd_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) List[str] [source]¶
- 通过嵌入运行更多文本并添加到向量数据库
异步地。
- 参数
texts (Iterable[str]) – 要添加到向量数据库的字符串迭代器。
metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。
ids (Optional[List[str]]) – 可选的唯一 ID 列表。
kwargs (Any) –
- 返回
从将文本添加到向量数据库中获得的 ID 列表。
- 返回类型
List[str]
- add_documents(documents: List[Document], **kwargs: Any) List[str] ¶
在向量数据库中添加或更新文档。
- 参数
documents (List[Document]) – 要添加到向量数据库的文档列表。
kwargs (Any) – 额外的关键字参数。如果 kwargs 包含 ids 并且 documents 包含 ids,则 kwargs 中的 ids 将优先。
- 返回
添加的文本的 ID 列表。
- 抛出
ValueError – 如果 ids 的数量与文档的数量不匹配。
- 返回类型
List[str]
- add_embeddings(text_embeddings: Iterable[Tuple[str, List[float]]], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) List[str] [source]¶
将给定的文本和嵌入添加到向量数据库。
- 参数
text_embeddings (Iterable[Tuple[str, List[float]]]) – 要添加到向量数据库的字符串和嵌入对的迭代器。
metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。
ids (Optional[List[str]]) – 可选的唯一 ID 列表。
kwargs (Any) –
- 返回
从将文本添加到向量数据库中获得的 ID 列表。
- 返回类型
List[str]
- add_texts(texts: Iterable[str], metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) List[str] [source]¶
通过嵌入运行更多文本并添加到向量数据库。
- 参数
texts (Iterable[str]) – 要添加到向量数据库的字符串迭代器。
metadatas (Optional[List[dict]]) – 与文本关联的可选元数据列表。
ids (Optional[List[str]]) – 可选的唯一 ID 列表。
kwargs (Any) –
- 返回
从将文本添加到向量数据库中获得的 ID 列表。
- 返回类型
List[str]
- async adelete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool] ¶
异步地按向量 ID 或其他条件删除。
- 参数
ids (Optional[List[str]]) – 要删除的 ID 列表。如果为 None,则删除全部。默认为 None。
**kwargs (Any) – 子类可能使用的其他关键字参数。
- 返回
如果删除成功,则返回 True,否则返回 False,如果未实现,则返回 None。
- 返回类型
Optional[bool]
- async classmethod afrom_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST ¶
异步地从文档和嵌入初始化并返回 VectorStore。
- 参数
documents (List[Document]) – 要添加到向量数据库的文档列表。
embedding (Embeddings) – 要使用的嵌入函数。
kwargs (Any) – 额外的关键字参数。
- 返回
从文档和嵌入初始化的 VectorStore。
- 返回类型
- async classmethod afrom_embeddings(text_embeddings: Iterable[Tuple[str, List[float]]], embedding: Embeddings, metadatas: Optional[Iterable[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) FAISS [source]¶
异步地从原始文档构建 FAISS 包装器。
- 参数
text_embeddings (Iterable[Tuple[str, List[float]]]) –
embedding (Embeddings) –
metadatas (Optional[Iterable[dict]]) –
ids (Optional[List[str]]) –
kwargs (Any) –
- 返回类型
- async classmethod afrom_texts(texts: list[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) FAISS [source]¶
异步地从原始文档构建 FAISS 包装器。
- 这是一个用户友好的界面,用于
嵌入文档。
创建内存文档存储
初始化 FAISS 数据库
旨在作为快速入门的方式。
示例
from langchain_community.vectorstores import FAISS from langchain_community.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() faiss = await FAISS.afrom_texts(texts, embeddings)
- 参数
texts (list[str]) –
embedding (Embeddings) –
metadatas (Optional[List[dict]]) –
ids (Optional[List[str]]) –
kwargs (Any) –
- 返回类型
- async aget_by_ids(ids: Sequence[str], /) List[Document] ¶
异步地按 ID 获取文档。
返回的文档应将 ID 字段设置为向量存储中文档的 ID。
如果某些 ID 未找到或存在重复 ID,则返回的文档可能少于请求的文档。
用户不应假设返回文档的顺序与输入 ID 的顺序匹配。相反,用户应依赖返回文档的 ID 字段。
如果某些 ID 没有找到文档,此方法**不应**引发异常。
- 参数
ids (Sequence[str]) – 要检索的 ID 列表。
- 返回
文档列表。
- 返回类型
List[Document]
0.2.11 版本新增。
- async amax_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Union[Callable, Dict[str, Any]]] = None, **kwargs: Any) List[Document] [source]¶
异步地返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性以及所选文档之间的多样性。
- 参数
query (str) – 用于查找相似文档的文本。
k (int) – 要返回的文档数量。默认为 4。
fetch_k (int) – 在过滤(如果需要)之前要获取的文档数量,以传递给 MMR 算法。
lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。
filter (Optional[Union[Callable, Dict[str, Any]]]) –
kwargs (Any) –
- 返回
通过最大边际相关性选择的文档列表。
- 返回类型
List[Document]
- async amax_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Union[Callable, Dict[str, Any]]] = None, **kwargs: Any) List[Document] [source]¶
异步地返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性以及所选文档之间的多样性。
- 参数
embedding (List[float]) – 用于查找相似文档的嵌入向量。
k (int) – 要返回的文档数量。默认为 4。
fetch_k (int) – 在过滤之前要获取的文档数量,以传递给 MMR 算法。
lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。
filter (Optional[Union[Callable, Dict[str, Any]]]) –
kwargs (Any) –
- 返回
通过最大边际相关性选择的文档列表。
- 返回类型
List[Document]
- async amax_marginal_relevance_search_with_score_by_vector(embedding: List[float], *, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Union[Callable, Dict[str, Any]]] = None) List[Tuple[Document, float]] [source]¶
- 返回文档及其相似度评分,这些文档使用最大边际
异步地计算最大边际相关性。
最大边际相关性优化了与查询的相似性以及所选文档之间的多样性。
- 参数
embedding (List[float]) – 用于查找相似文档的嵌入向量。
k (int) – 要返回的文档数量。默认为 4。
fetch_k (int) – 在过滤之前要获取的文档数量,以传递给 MMR 算法。
lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。
filter (Optional[Union[Callable, Dict[str, Any]]]) –
- 返回
- 通过最大边际相关性选择的文档列表和相似度分数
以及每个文档的分数。
- 返回类型
List[Tuple[Document, float]]
- as_retriever(**kwargs: Any) VectorStoreRetriever ¶
从这个 VectorStore 初始化并返回 VectorStoreRetriever。
- 参数
**kwargs (Any) –
传递给搜索函数的关键字参数。可以包括:search_type (Optional[str]):定义检索器应执行的搜索类型。
可以是 “similarity”(默认)、“mmr” 或 “similarity_score_threshold”。
- search_kwargs (Optional[Dict]):传递给
- 搜索函数的关键字参数。可以包括如下内容:
k:要返回的文档数量(默认值:4) score_threshold:相似度分数阈值的最小相关性阈值
用于 similarity_score_threshold
- fetch_k:传递给 MMR 算法的文档数量
(默认值:20)
- lambda_mult:MMR 返回结果的多样性;
1 表示最小多样性,0 表示最大多样性。(默认值:0.5)
filter:按文档元数据过滤
- 返回
VectorStore 的检索器类。
- 返回类型
示例
# Retrieve more documents with higher diversity # Useful if your dataset has many similar documents docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 6, 'lambda_mult': 0.25} ) # Fetch more documents for the MMR algorithm to consider # But only return the top 5 docsearch.as_retriever( search_type="mmr", search_kwargs={'k': 5, 'fetch_k': 50} ) # Only retrieve documents that have a relevance score # Above a certain threshold docsearch.as_retriever( search_type="similarity_score_threshold", search_kwargs={'score_threshold': 0.8} ) # Only get the single most similar document from the dataset docsearch.as_retriever(search_kwargs={'k': 1}) # Use a filter to only retrieve documents from a specific paper docsearch.as_retriever( search_kwargs={'filter': {'paper_title':'GPT-4 Technical Report'}} )
- async asearch(query: str, search_type: str, **kwargs: Any) List[Document] ¶
异步地返回与查询最相似的文档,使用指定的搜索类型。
- 参数
query (str) – 输入文本。
search_type (str) – 要执行的搜索类型。可以是 “similarity”、“mmr” 或 “similarity_score_threshold”。
**kwargs (Any) – 传递给搜索方法的参数。
- 返回
与查询最相似的文档列表。
- 抛出
ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。
- 返回类型
List[Document]
- async asimilarity_search(query: str, k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: int = 20, **kwargs: Any) List[Document] [source]¶
异步地返回与查询最相似的文档。
- 参数
query (str) – 用于查找相似文档的文本。
k (int) – 要返回的文档数量。默认为 4。
filter (Optional[Union[Callable, Dict[str, Any]]]) – (Optional[Dict[str, str]]): 按元数据过滤。默认为 None。
fetch_k (int) – (Optional[int]) 过滤前要获取的文档数量。默认为 20。
kwargs (Any) –
- 返回
与查询最相似的文档列表。
- 返回类型
List[Document]
- async asimilarity_search_by_vector(embedding: List[float], k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: int = 20, **kwargs: Any) List[Document] [source]¶
异步地返回与嵌入向量最相似的文档。
- 参数
embedding (List[float]) – 用于查找相似文档的嵌入向量。
k (int) – 要返回的文档数量。默认为 4。
filter (Optional[Dict[str, str]]) – 按元数据过滤。默认为 None。如果为可调用对象,则它必须将 Document 的元数据字典作为输入并返回一个布尔值。
fetch_k (int) – (Optional[int]) 过滤前要获取的文档数量。默认为 20。
kwargs (Any) –
- 返回
与嵌入向量最相似的文档列表。
- 返回类型
List[Document]
- async asimilarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]] ¶
异步地返回文档和 [0, 1] 范围内的相关性评分。
0 表示不相似,1 表示最相似。
- 参数
query (str) – 输入文本。
k (int) – 要返回的文档数量。默认为 4。
**kwargs (Any) –
要传递给相似度搜索的 kwargs。应包括:score_threshold:可选,介于 0 到 1 之间的浮点值,用于
过滤检索到的文档结果集
- 返回
元组列表 (doc, similarity_score)
- 返回类型
List[Tuple[Document, float]]
- async asimilarity_search_with_score(query: str, k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]] [source]¶
异步地返回与查询最相似的文档。
- 参数
query (str) – 用于查找相似文档的文本。
k (int) – 要返回的文档数量。默认为 4。
filter (Optional[Dict[str, str]]) – 按元数据过滤。默认为 None。如果为可调用对象,则它必须将 Document 的元数据字典作为输入并返回一个布尔值。
fetch_k (int) – (Optional[int]) 过滤前要获取的文档数量。默认为 20。
kwargs (Any) –
- 返回
与查询文本最相似的文档列表,带有 float 类型的 L2 距离。分数越低表示相似度越高。
- 返回类型
List[Tuple[Document, float]]
- async asimilarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]] [source]¶
异步地返回与查询最相似的文档。
- 参数
embedding (List[float]) – 用于查找相似文档的嵌入向量。
k (int) – 要返回的文档数量。默认为 4。
filter (Optional[Dict[str, Any]]) – 按元数据过滤。默认为 None。如果为可调用对象,则它必须将 Document 的元数据字典作为输入并返回一个布尔值。
fetch_k (int) – (Optional[int]) 过滤前要获取的文档数量。默认为 20。
**kwargs (Any) –
要传递给相似度搜索的 kwargs。可以包括:score_threshold:可选,介于 0 到 1 之间的浮点值,用于
过滤检索到的文档结果集
- 返回
与查询文本最相似的文档列表,以及每个文档的 float 类型的 L2 距离。分数越低表示相似度越高。
- 返回类型
List[Tuple[Document, float]]
- astreaming_upsert(items: AsyncIterable[Document], /, batch_size: int, **kwargs: Any) AsyncIterator[UpsertResponse] ¶
Beta 版本
在 0.2.11 版本中添加。API 可能会发生变化。
以流式方式更新文档。streaming_upsert 的异步版本。
- 参数
items (AsyncIterable[Document]) – 要添加到向量存储的文档的可迭代对象。
batch_size (int) – 每次更新批处理的大小。
kwargs (Any) – 额外的关键字参数。kwargs 应仅包括所有文档通用的参数。(例如,索引超时、重试策略等)kwargs 不应包括 ids 以避免语义不明确。相反,ID 应作为 Document 对象的一部分提供。
- Yields
UpsertResponse – 响应对象,其中包含向量存储中成功添加或更新的 ID 列表,以及添加或更新失败的 ID 列表。
- 返回类型
AsyncIterator[UpsertResponse]
0.2.11 版本新增。
- async aupsert(items: Sequence[Document], /, **kwargs: Any) UpsertResponse ¶
Beta 版本
在 0.2.11 版本中添加。API 可能会发生变化。
在向量存储中添加或更新文档。`upsert` 的异步版本。
`upsert` 功能应该利用 `Document` 对象的 ID 字段(如果已提供)。如果未提供 ID,则 `upsert` 方法可以自由地为文档生成 ID。
当指定了 ID 并且文档已存在于向量存储中时,`upsert` 方法应该使用新数据更新文档。如果文档不存在,则 `upsert` 方法应该将文档添加到向量存储中。
- 参数
items (Sequence[Document]) – 要添加到向量存储的文档序列。
kwargs (Any) – 额外的关键字参数。
- 返回
一个响应对象,其中包含已成功在向量存储中添加或更新的 ID 列表,以及添加或更新失败的 ID 列表。
- 返回类型
0.2.11 版本新增。
- delete(ids: Optional[List[str]] = None, **kwargs: Any) Optional[bool] [source]¶
通过 ID 删除。这些是向量存储中的 ID。
- 参数
ids (Optional[List[str]]) – 要删除的 ID 列表。
kwargs (Any) –
- 返回
如果删除成功,则返回 True,否则返回 False,如果未实现,则返回 None。
- 返回类型
Optional[bool]
- classmethod deserialize_from_bytes(serialized: bytes, embeddings: Embeddings, *, allow_dangerous_deserialization: bool = False, **kwargs: Any) FAISS [source]¶
从字节反序列化 FAISS 索引、文档存储和 index_to_docstore_id。
- 参数
serialized (bytes) –
embeddings (Embeddings) –
allow_dangerous_deserialization (bool) –
kwargs (Any) –
- 返回类型
- classmethod from_documents(documents: List[Document], embedding: Embeddings, **kwargs: Any) VST ¶
从文档和嵌入初始化并返回 VectorStore。
- 参数
documents (List[Document]) – 要添加到向量数据库的文档列表。
embedding (Embeddings) – 要使用的嵌入函数。
kwargs (Any) – 额外的关键字参数。
- 返回
从文档和嵌入初始化的 VectorStore。
- 返回类型
- classmethod from_embeddings(text_embeddings: Iterable[Tuple[str, List[float]]], embedding: Embeddings, metadatas: Optional[Iterable[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) FAISS [source]¶
从原始文档构建 FAISS 包装器。
- 这是一个用户友好的界面,用于
嵌入文档。
创建内存文档存储
初始化 FAISS 数据库
旨在作为快速入门的方式。
示例
from langchain_community.vectorstores import FAISS from langchain_community.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() text_embeddings = embeddings.embed_documents(texts) text_embedding_pairs = zip(texts, text_embeddings) faiss = FAISS.from_embeddings(text_embedding_pairs, embeddings)
- 参数
text_embeddings (Iterable[Tuple[str, List[float]]]) –
embedding (Embeddings) –
metadatas (Optional[Iterable[dict]]) –
ids (Optional[List[str]]) –
kwargs (Any) –
- 返回类型
- classmethod from_texts(texts: List[str], embedding: Embeddings, metadatas: Optional[List[dict]] = None, ids: Optional[List[str]] = None, **kwargs: Any) FAISS [source]¶
从原始文档构建 FAISS 包装器。
- 这是一个用户友好的界面,用于
嵌入文档。
创建内存文档存储
初始化 FAISS 数据库
旨在作为快速入门的方式。
示例
from langchain_community.vectorstores import FAISS from langchain_community.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() faiss = FAISS.from_texts(texts, embeddings)
- 参数
texts (List[str]) –
embedding (Embeddings) –
metadatas (Optional[List[dict]]) –
ids (Optional[List[str]]) –
kwargs (Any) –
- 返回类型
- get_by_ids(ids: Sequence[str], /) List[Document] ¶
按 ID 获取文档。
返回的文档应将 ID 字段设置为向量存储中文档的 ID。
如果某些 ID 未找到或存在重复 ID,则返回的文档可能少于请求的文档。
用户不应假设返回文档的顺序与输入 ID 的顺序匹配。相反,用户应依赖返回文档的 ID 字段。
如果某些 ID 没有找到文档,此方法**不应**引发异常。
- 参数
ids (Sequence[str]) – 要检索的 ID 列表。
- 返回
文档列表。
- 返回类型
List[Document]
0.2.11 版本新增。
- classmethod load_local(folder_path: str, embeddings: Embeddings, index_name: str = 'index', *, allow_dangerous_deserialization: bool = False, **kwargs: Any) FAISS [source]¶
从磁盘加载 FAISS 索引、文档存储和 index_to_docstore_id。
- 参数
folder_path (str) – 从文件夹路径加载索引、文档存储和 index_to_docstore_id。
embeddings (Embeddings) – 生成查询时使用的 Embeddings。
index_name (str) – 用于使用特定索引文件名保存。
allow_dangerous_deserialization (bool) – 是否允许反序列化数据,这涉及到加载 pickle 文件。 Pickle 文件可能被恶意行为者修改,以传递恶意负载,从而导致在您的机器上执行任意代码。
kwargs (Any) –
- 返回类型
- max_marginal_relevance_search(query: str, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Union[Callable, Dict[str, Any]]] = None, **kwargs: Any) List[Document] [source]¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性以及所选文档之间的多样性。
- 参数
query (str) – 用于查找相似文档的文本。
k (int) – 要返回的文档数量。默认为 4。
fetch_k (int) – 在过滤(如果需要)之前要获取的文档数量,以传递给 MMR 算法。
lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。
filter (Optional[Union[Callable, Dict[str, Any]]]) –
kwargs (Any) –
- 返回
通过最大边际相关性选择的文档列表。
- 返回类型
List[Document]
- max_marginal_relevance_search_by_vector(embedding: List[float], k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Union[Callable, Dict[str, Any]]] = None, **kwargs: Any) List[Document] [source]¶
返回使用最大边际相关性选择的文档。
最大边际相关性优化了与查询的相似性以及所选文档之间的多样性。
- 参数
embedding (List[float]) – 用于查找相似文档的嵌入向量。
k (int) – 要返回的文档数量。默认为 4。
fetch_k (int) – 在过滤之前要获取的文档数量,以传递给 MMR 算法。
lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。
filter (Optional[Union[Callable, Dict[str, Any]]]) –
kwargs (Any) –
- 返回
通过最大边际相关性选择的文档列表。
- 返回类型
List[Document]
- max_marginal_relevance_search_with_score_by_vector(embedding: List[float], *, k: int = 4, fetch_k: int = 20, lambda_mult: float = 0.5, filter: Optional[Union[Callable, Dict[str, Any]]] = None) List[Tuple[Document, float]] [source]¶
- 返回文档及其相似度评分,这些文档使用最大边际
相关性。
最大边际相关性优化了与查询的相似性以及所选文档之间的多样性。
- 参数
embedding (List[float]) – 用于查找相似文档的嵌入向量。
k (int) – 要返回的文档数量。默认为 4。
fetch_k (int) – 在过滤之前要获取的文档数量,以传递给 MMR 算法。
lambda_mult (float) – 介于 0 和 1 之间的数字,用于确定结果之间多样性的程度,其中 0 对应于最大多样性,1 对应于最小多样性。默认为 0.5。
filter (Optional[Union[Callable, Dict[str, Any]]]) –
- 返回
- 通过最大边际相关性选择的文档列表和相似度分数
以及每个文档的分数。
- 返回类型
List[Tuple[Document, float]]
- merge_from(target: FAISS) None [source]¶
将另一个 FAISS 对象与当前对象合并。
将目标 FAISS 添加到当前的 FAISS 中。
- 参数
target (FAISS) – 您希望合并到当前 FAISS 对象中的目标 FAISS 对象。
- 返回
None.
- 返回类型
None
- save_local(folder_path: str, index_name: str = 'index') None [source]¶
将 FAISS 索引、文档存储和 index_to_docstore_id 保存到磁盘。
- 参数
folder_path (str) – 用于保存索引、文档存储和 index_to_docstore_id 的文件夹路径。
index_name (str) – 用于使用特定索引文件名保存。
- 返回类型
None
- search(query: str, search_type: str, **kwargs: Any) List[Document] ¶
返回与查询最相似的文档,使用指定的搜索类型。
- 参数
query (str) – 输入文本
search_type (str) – 要执行的搜索类型。可以是 “similarity”、“mmr” 或 “similarity_score_threshold”。
**kwargs (Any) – 传递给搜索方法的参数。
- 返回
与查询最相似的文档列表。
- 抛出
ValueError – 如果 search_type 不是 “similarity”、“mmr” 或 “similarity_score_threshold” 之一。
- 返回类型
List[Document]
- similarity_search(query: str, k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: अद्भुत: int = 20, **kwargs: Any) List[Document] [source]¶
返回与查询最相似的文档。
- 参数
query (str) – 用于查找相似文档的文本。
k (int) – 要返回的文档数量。默认为 4。
filter (Optional[Union[Callable, Dict[str, Any]]]) – (Optional[Dict[str, str]]): 按元数据过滤。默认为 None。
fetch_k (int) – (Optional[int]) 过滤前要获取的文档数量。默认为 20。
kwargs (Any) –
- 返回
与查询最相似的文档列表。
- 返回类型
List[Document]
- similarity_search_by_vector(embedding: List[float], k: int = 4, filter: Optional[Dict[str, Any]] = None, fetch_k: int = 20, **kwargs: Any) List[Document] [source]¶
返回与嵌入向量最相似的文档。
- 参数
embedding (List[float]) – 用于查找相似文档的嵌入向量。
k (int) – 要返回的文档数量。默认为 4。
filter (Optional[Dict[str, str]]) – 按元数据过滤。默认为 None。如果为可调用对象,则它必须将 Document 的元数据字典作为输入并返回一个布尔值。
fetch_k (int) – (Optional[int]) 过滤前要获取的文档数量。默认为 20。
kwargs (Any) –
- 返回
与嵌入向量最相似的文档列表。
- 返回类型
List[Document]
- similarity_search_with_relevance_scores(query: str, k: int = 4, **kwargs: Any) List[Tuple[Document, float]] ¶
返回文档和 [0, 1] 范围内的相关性评分。
0 表示不相似,1 表示最相似。
- 参数
query (str) – 输入文本。
k (int) – 要返回的文档数量。默认为 4。
**kwargs (Any) –
要传递给相似度搜索的 kwargs。应包括:score_threshold:可选,介于 0 到 1 之间的浮点值,用于
过滤检索到的文档结果集。
- 返回
元组列表,包含 (doc, similarity_score)。
- 返回类型
List[Tuple[Document, float]]
- similarity_search_with_score(query: str, k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]] [source]¶
返回与查询最相似的文档。
- 参数
query (str) – 用于查找相似文档的文本。
k (int) – 要返回的文档数量。默认为 4。
filter (Optional[Dict[str, str]]) – 按元数据过滤。默认为 None。如果为可调用对象,则它必须将 Document 的元数据字典作为输入并返回一个布尔值。
fetch_k (int) – (Optional[int]) 过滤前要获取的文档数量。默认为 20。
kwargs (Any) –
- 返回
与查询文本最相似的文档列表,带有 float 类型的 L2 距离。分数越低表示相似度越高。
- 返回类型
List[Tuple[Document, float]]
- similarity_search_with_score_by_vector(embedding: List[float], k: int = 4, filter: Optional[Union[Callable, Dict[str, Any]]] = None, fetch_k: int = 20, **kwargs: Any) List[Tuple[Document, float]] [source]¶
返回与查询最相似的文档。
- 参数
embedding (List[float]) – 用于查找相似文档的嵌入向量。
k (int) – 要返回的文档数量。默认为 4。
filter (Optional[Union[Callable, Dict[str, Any]]]) – 按元数据过滤。默认为 None。如果为可调用对象,则它必须将 Document 的元数据字典作为输入并返回一个布尔值。
fetch_k (int) – (Optional[int]) 过滤前要获取的文档数量。默认为 20。
**kwargs (Any) –
要传递给相似度搜索的 kwargs。可以包括:score_threshold:可选,介于 0 到 1 之间的浮点值,用于
过滤检索到的文档结果集
- 返回
与查询文本最相似的文档列表,以及每个文档的 float 类型的 L2 距离。分数越低表示相似度越高。
- 返回类型
List[Tuple[Document, float]]
- streaming_upsert(items: Iterable[Document], /, batch_size: int, **kwargs: Any) Iterator[UpsertResponse] ¶
Beta 版本
在 0.2.11 版本中添加。API 可能会发生变化。
以流式方式更新文档。
- 参数
items (Iterable[Document]) – 要添加到向量存储的可迭代 Document。
batch_size (int) – 每次更新批处理的大小。
kwargs (Any) – 额外的关键字参数。kwargs 应仅包含所有文档通用的参数。(例如,索引超时、重试策略等)kwargs 不应包含 ids 以避免语义模糊。相反,ID 应作为 Document 对象的一部分提供。
- Yields
UpsertResponse – 响应对象,其中包含向量存储中成功添加或更新的 ID 列表,以及添加或更新失败的 ID 列表。
- 返回类型
Iterator[UpsertResponse]
0.2.11 版本新增。
- upsert(items: Sequence[Document], /, **kwargs: Any) UpsertResponse ¶
Beta 版本
在 0.2.11 版本中添加。API 可能会发生变化。
在向量数据库中添加或更新文档。
`upsert` 功能应该利用 `Document` 对象的 ID 字段(如果已提供)。如果未提供 ID,则 `upsert` 方法可以自由地为文档生成 ID。
当指定了 ID 并且文档已存在于向量存储中时,`upsert` 方法应该使用新数据更新文档。如果文档不存在,则 `upsert` 方法应该将文档添加到向量存储中。
- 参数
items (Sequence[Document]) – 要添加到向量存储的文档序列。
kwargs (Any) – 额外的关键字参数。
- 返回
一个响应对象,其中包含已成功在向量存储中添加或更新的 ID 列表,以及添加或更新失败的 ID 列表。
- 返回类型
0.2.11 版本新增。