langchain_community
0.2.11¶
langchain_community.adapters
¶
Adapters are used to adapt LangChain models to other APIs.
LangChain integrates with many model providers. While LangChain has its own message and model APIs, LangChain has also made it as easy as possible to explore other models by exposing an adapter to adapt LangChain models to the other APIs, as to the OpenAI API.
Classes¶
Chat. |
|
Chat completion. |
|
Chat completion chunk. |
|
Chat completions. |
|
Choice. |
|
Choice chunk. |
|
Completions. |
|
Allows a BaseModel to return its fields by string variable indexing. |
Functions¶
|
Async version of enumerate function. |
Convert a dictionary to a LangChain message. |
|
Convert a LangChain message to a dictionary. |
|
Convert messages to a list of lists of dictionaries for fine-tuning. |
|
|
Convert dictionaries representing OpenAI messages to LangChain format. |
langchain_community.agent_toolkits
¶
Toolkits are sets of tools that can be used to interact with various services and APIs.
Classes¶
Toolkit for interacting with AINetwork Blockchain. |
|
Toolkit for interacting with Amadeus which offers APIs for travel. |
|
Toolkit for Azure AI Services. |
|
|
Toolkit for Azure Cognitive Services. |
|
Toolkit for interacting with an Apache Cassandra database. |
Clickup Toolkit. |
|
Toolkit for CogniSwitch. |
|
Toolkit with a list of Connery Actions as tools. |
|
|
Toolkit for interacting with local files. |
Schema for operations that require a branch name as input. |
|
Schema for operations that require a comment as input. |
|
Schema for operations that require a file path and content as input. |
|
Schema for operations that require a PR title and body as input. |
|
Schema for operations that require a username as input. |
|
Schema for operations that require a file path as input. |
|
Schema for operations that require a directory path as input. |
|
Schema for operations that require an issue number as input. |
|
Schema for operations that require a PR number as input. |
|
GitHub Toolkit. |
|
Schema for operations that do not require any input. |
|
Schema for operations that require a file path as input. |
|
Schema for operations that require a search query as input. |
|
Schema for operations that require a search query as input. |
|
Schema for operations that require a file path and content as input. |
|
GitLab Toolkit. |
|
Toolkit for interacting with Gmail. |
|
Jira Toolkit. |
|
Toolkit for interacting with a JSON spec. |
|
Toolkit for interacting with the Browser Agent. |
|
Nasa Toolkit. |
|
Natural Language API Tool. |
|
Natural Language API Toolkit. |
|
Toolkit for interacting with Office 365. |
|
|
Tool that sends a DELETE request and parses the response. |
Requests GET tool with LLM-instructed extraction of truncated responses. |
|
Requests PATCH tool with LLM-instructed extraction of truncated responses. |
|
Requests POST tool with LLM-instructed extraction of truncated responses. |
|
Requests PUT tool with LLM-instructed extraction of truncated responses. |
|
A reduced OpenAPI spec. |
|
Toolkit for interacting with an OpenAPI API. |
|
Toolkit for making REST requests. |
|
Toolkit for PlayWright browser tools. |
|
Polygon Toolkit. |
|
Toolkit for interacting with Power BI dataset. |
|
Toolkit for interacting with Slack. |
|
Toolkit for interacting with Spark SQL. |
|
SQLDatabaseToolkit for interacting with SQL databases. |
|
Steam Toolkit. |
|
Zapier Toolkit. |
Functions¶
Construct a json agent from an LLM and tools. |
|
Get a list of all possible tool names. |
|
Loads a tool from the HuggingFace Hub. |
|
|
Load tools based on their name. |
|
|
Construct an OpenAPI agent from an LLM and tools. |
|
Construct an OpenAI API planner and controller for a given spec. |
|
Simplify/distill/minify a spec somehow. |
|
Construct a Power BI agent from an LLM and tools. |
|
Construct a Power BI agent from a Chat LLM and tools. |
|
Construct a Spark SQL agent from an LLM and tools. |
|
Construct a SQL agent from an LLM and toolkit or database. |
langchain_community.agents
¶
Classes¶
langchain_community.cache
¶
Warning
Beta Feature!
Cache provides an optional caching layer for LLMs.
Cache is useful for two reasons
It can save you money by reducing the number of API calls you make to the LLM provider if you’re often requesting the same completion multiple times.
It can speed up your application by reducing the number of API calls you make to the LLM provider.
Cache directly competes with Memory. See documentation for Pros and Cons.
Class hierarchy
BaseCache --> <name>Cache # Examples: InMemoryCache, RedisCache, GPTCache
Classes¶
|
Cache that uses Redis as a backend. |
|
Cache that uses Cosmos DB Mongo vCore vector-store backend |
|
Cache that uses Cassandra / Astra DB as a backend. |
|
Cache that uses Cassandra as a vector-store backend for semantic (i.e. |
|
SQLite table for full LLM Cache (all generations). |
|
SQLite table for full LLM Cache (all generations). |
|
Cache that uses GPTCache as a backend. |
Cache that stores things in memory. |
|
|
Cache that uses Momento as a backend. |
|
Cache that uses OpenSearch vector store backend |
|
Cache that uses Redis as a backend. |
|
Cache that uses Redis as a vector-store backend. |
|
Cache that uses SQAlchemy as a backend. |
|
Cache that uses SQAlchemy as a backend. |
|
Cache that uses SQLite as a backend. |
|
Cache that uses SingleStore DB as a backend |
|
Cache that uses Upstash Redis as a backend. |
Deprecated classes¶
|
Deprecated since version 0.0.28: Use |
|
Deprecated since version 0.0.28: Use |
langchain_community.callbacks
¶
Callback handlers allow listening to events in LangChain.
Class hierarchy
BaseCallbackHandler --> <name>CallbackHandler # Example: AimCallbackHandler
Classes¶
Callback Handler that logs to Aim. |
|
Callback handler for the metadata and associated function states for callbacks. |
|
Callback Handler that logs into Argilla. |
|
Callback Handler that logs to Arize. |
|
Callback Handler that logs to Arthur platform. |
|
|
Callback Handler that tracks bedrock anthropic info. |
Callback Handler that logs to ClearML. |
|
Callback Handler that logs to Comet. |
|
|
Callback Handler that logs into deepeval. |
Callback Handler that records transcripts to the Context service. |
|
Initialize Fiddler callback handler. |
|
Callback handler that is used within a Flyte task. |
|
Asynchronous callback for manually validating values. |
|
Callback for manually validating values. |
|
Exception to raise when a person manually review and rejects a value. |
|
Callback Handler that logs to Infino. |
|
|
Label Studio callback handler. |
Label Studio mode enumerator. |
|
|
Callback Handler for LLMonitor`. |
Context manager for LLMonitor user context. |
|
Callback Handler that logs metrics and artifacts to mlflow server. |
|
|
Callback Handler that logs metrics and artifacts to mlflow server. |
Callback Handler that tracks OpenAI info. |
|
|
Callback handler for promptlayer. |
Callback Handler that logs prompt artifacts and metrics to SageMaker Experiments. |
|
Child record as a NamedTuple. |
|
Enumerator of the child type. |
|
Streamlit expander that can be renamed and dynamically expanded/collapsed. |
|
|
A thought in the LLM's thought stream. |
|
Generates markdown labels for LLMThought containers. |
|
Enumerator of the LLMThought state. |
|
Callback handler that writes to a Streamlit app. |
|
Tool record as a NamedTuple. |
|
Comet Tracer. |
Arguments for the WandbTracer. |
|
Callback Handler that logs to Weights and Biases. |
|
Callback handler for Trubrics. |
|
|
Upstash Ratelimit Error |
|
Callback to handle rate limiting based on the number of requests or the number of tokens in the input. |
Callback Handler that logs evaluation results to uptrain and the console. |
|
The UpTrain data schema for tracking evaluation results. |
|
Handle the metadata and associated function states for callbacks. |
|
Callback Handler that logs to Weights and Biases. |
|
Callback Handler for logging to WhyLabs. |
Functions¶
Import the aim python package and raise an error if it is not installed. |
|
Import the clearml python package and raise an error if it is not installed. |
|
Import comet_ml and raise an error if it is not installed. |
|
Import the getcontext package. |
|
Import the fiddler python package and raise an error if it is not installed. |
|
Analyze text using textstat and spacy. |
|
Import flytekit and flytekitplugins-deck-standard. |
|
Calculate num tokens for OpenAI with tiktoken package. |
|
Import the infino client. |
|
Import tiktoken for counting tokens for OpenAI models. |
|
|
Get default Label Studio configs for the given mode. |
Builds an LLMonitor UserContextManager |
|
Get the Bedrock anthropic callback handler in a context manager. |
|
Get the OpenAI callback handler in a context manager. |
|
Get the WandbTracer in a context manager. |
|
Analyze text using textstat and spacy. |
|
|
Construct an html element from a prompt and a generation. |
Get the text complexity metrics from textstat. |
|
Import the mlflow python package and raise an error if it is not installed. |
|
Get the metrics to log to MLFlow. |
|
Get the cost in USD for a given model and number of tokens. |
|
Standardize the model name to a format that can be used in the OpenAI API. |
|
|
Save dict to local file path. |
Import comet_llm api and raise an error if it is not installed. |
|
Builds a nested dictionary from a list of runs. :param runs: The list of runs to build the tree from. :return: The nested dictionary representing the langchain Run in a tree structure compatible with WBTraceTree. |
|
Utility to flatten a nest run object into a list of runs. |
|
Utility to modify the serialized field of a list of runs dictionaries. removes any keys that match the exact_keys and any keys that contain any of the partial_keys. recursively moves the dictionaries under the kwargs key to the top level. changes the "id" field to a string "_kind" field that tells WBTraceTree how to visualize the run. promotes the "serialized" field to the top level. :param runs: The list of runs to modify. :param exact_keys: A tuple of keys to remove from the serialized field. :param partial_keys: A tuple of partial keys to remove from the serialized field. :return: The modified list of runs. |
|
Utility to truncate a list of runs dictionaries to only keep the specified |
|
Import the uptrain package. |
|
|
Flatten a nested dictionary into a flat dictionary. |
Hash a string using sha1. |
|
Import the pandas python package and raise an error if it is not installed. |
|
Import the spacy python package and raise an error if it is not installed. |
|
Import the textstat python package and raise an error if it is not installed. |
|
|
Load json file to a string. |
Analyze text using textstat and spacy. |
|
|
Construct an html element from a prompt and a generation. |
导入 wandb python 包,如果未安装则引发错误。 |
|
将 json 文件加载到字典。 |
|
导入 langkit python 包,如果未安装则引发错误。 |
langchain_community.chains
¶
langchain_community 的 Chains 模块
此模块包含社区 Chains。
类¶
用于通过生成 AQL 语句针对图进行问答的 Chain。 |
|
用于针对图进行问答的 Chain。 |
|
用于通过生成 Cypher 语句针对图进行问答的 Chain。 |
|
用于修正生成的 Cypher 语句中的关系方向。 |
|
创建 Schema(left_node, relation, right_node) 的新实例 |
|
用于通过生成 Cypher 语句针对图进行问答的 Chain。 |
|
用于通过生成 gremlin 语句针对图进行问答的 Chain。 |
|
用于通过生成 gremlin 语句针对图进行问答的 Chain。 |
|
通过为 Kùzu 生成 Cypher 语句针对图进行问答。 |
|
用于通过生成 nGQL 语句针对图进行问答的 Chain。 |
|
用于通过生成 openCypher 语句针对 Neptune 图进行问答的 Chain。 |
|
用于通过生成 SPARQL 语句针对 Neptune 图进行问答的 Chain。 |
|
针对 Ontotext GraphDB 进行问答 |
|
通过生成 SPARQL 语句针对 RDF 或 OWL 图进行问答。 |
|
请求 URL 然后使用 LLM 解析结果的 Chain。 |
|
Chain 使用自然语言与 OpenAPI 端点交互。 |
|
获取请求解析器。 |
|
解析请求和错误标签。 |
|
获取响应解析器。 |
|
解析响应和错误标签。 |
|
具有身份和语义强制的检索 Chain,用于针对向量数据库进行问答。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
授权上下文的类。 |
|
PebbloRetrievalQA 链的输入。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
Langchain 框架详情 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
操作系统、语言详情 |
|
语义上下文的类。 |
|
语义实体过滤器的类。 |
|
语义主题过滤器的类。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
函数¶
|
将 Python 函数转换为与 Ernie 函数调用 API 兼容的字典。 |
将原始函数/类转换为 Ernie 函数。 |
|
[已弃用] 创建使用 Ernie 函数的 LLM 链。 |
|
创建使用 Ernie 函数的可运行序列。 |
|
|
[已弃用] 创建使用 Ernie 函数来获取结构化输出的 LLMChain。 |
|
创建使用 Ernie 函数来获取结构化输出的可运行对象。 |
获取给定用户函数的适当函数输出解析器。 |
|
根据包含或排除的类型过滤模式 |
|
从文本中提取 Cypher 代码。 |
|
从文本中提取 Cypher 代码。 |
|
从文本中提取 Gremlin 代码。 |
|
从文本中提取 Cypher 代码。 |
|
|
从文本中删除前缀。 |
使用 Regex 从文本中提取 Cypher 代码。 |
|
修剪查询以仅包含 Cypher 关键字。 |
|
决定是否使用简单提示 |
|
从文本中提取 SPARQL 代码。 |
|
|
清除检索器 search_kwargs 中的身份和语义强制过滤器。 |
|
在检索器中设置身份和语义强制过滤器。 |
获取本地运行时 ip 地址。 |
|
获取当前的框架和运行时详情。 |
langchain_community.chat_loaders
¶
Chat Loaders(聊天加载器) 从常见的通信平台加载聊天消息。
从各种通信平台(如 Facebook Messenger、Telegram 和 WhatsApp)加载聊天消息。加载的聊天消息可用于微调模型。
Class hierarchy
BaseChatLoader --> <name>ChatLoader # Examples: WhatsAppChatLoader, IMessageChatLoader
主要助手
ChatSession
类¶
|
从文件夹加载 Facebook Messenger 聊天数据。 |
|
从单个文件加载 Facebook Messenger 聊天数据。 |
从 iMessage chat.db SQLite 文件加载聊天会话。 |
|
从具有“chat”数据类型的 LangSmith 数据集加载聊天会话。 |
|
从 LangSmith “llm” 运行列表加载聊天会话。 |
|
从转储 zip 文件加载 Slack 对话。 |
|
将 telegram 对话加载到 LangChain 聊天消息。 |
|
从转储 zip 文件或目录加载 WhatsApp 对话。 |
函数¶
|
将自 2001 年以来的纳秒数转换为 datetime 对象。 |
将来自指定“sender”的消息转换为 AI 消息。 |
|
将来自指定“sender”的消息转换为 AI 消息。 |
|
|
将聊天运行合并在一起。 |
在一个聊天会话中将聊天运行合并在一起。 |
已弃用的类¶
|
0.0.32 版本后已弃用: 请使用 |
langchain_community.chat_message_histories
¶
Chat message history(聊天消息历史记录) 存储聊天中消息交互的历史记录。
Class hierarchy
BaseChatMessageHistory --> <name>ChatMessageHistory # Examples: FileChatMessageHistory, PostgresChatMessageHistory
主要助手
AIMessage, HumanMessage, BaseMessage
类¶
|
在 Cassandra 中存储历史记录的聊天消息历史记录。 |
|
由 Azure CosmosDB 支持的聊天消息历史记录。 |
|
在 AWS DynamoDB 中存储历史记录的聊天消息历史记录。 |
在本地文件中存储历史记录的聊天消息历史记录。 |
|
|
由 Google Firestore 支持的聊天消息历史记录。 |
Kafka 消费者获取聊天历史消息的消费起始位置。 |
|
存储在 Kafka 中的聊天消息历史记录。 |
|
|
使用 Momento 作为后端的聊天消息历史记录缓存。 |
存储在 Neo4j 数据库中的聊天消息历史记录。 |
|
存储在 Redis 数据库中的聊天消息历史记录。 |
|
|
使用 Rockset 存储聊天消息。 |
|
存储在 SingleStoreDB 数据库中的聊天消息历史记录。 |
将 BaseMessage 转换为 SQLAlchemy 模型。 |
|
SQLChatMessageHistory 的默认消息转换器。 |
|
存储在 SQL 数据库中的聊天消息历史记录。 |
|
|
在 Streamlit 会话状态中存储消息的聊天消息历史记录。 |
表示存储在 TiDB 数据库中的聊天消息历史记录。 |
|
|
存储在 Upstash Redis 数据库中的聊天消息历史记录。 |
存储在 Xata 数据库中的聊天消息历史记录。 |
|
文档搜索的范围。 |
|
要执行的搜索类型枚举器。 |
|
使用 Zep 作为后端的聊天消息历史记录。 |
|
|
使用 Zep Cloud 作为后端的聊天消息历史记录。 |
函数¶
如果主题不存在则创建主题,并返回分区数。 |
|
为给定的表名创建消息模型。 |
|
|
将 Zep 内存压缩为人类消息。 |
|
从角色字符串获取 Zep 角色类型。 |
已弃用的类¶
|
0.0.25 版本后已弃用: 请使用 |
|
0.0.27 版本后已弃用: 请使用 |
|
0.0.25 版本后已弃用: 请使用 |
|
0.0.31 版本后已弃用: 此类已弃用,将在未来版本中移除。您可以切换到使用 langchain_postgres 中的 PostgresChatMessageHistory 实现。请不要再向此类提交 PR。请参阅 <https://github.com/langchain-ai/langchain-postgres> 请使用 |
langchain_community.chat_models
¶
Chat Models(聊天模型) 是语言模型的一种变体。
虽然聊天模型在底层使用语言模型,但它们公开的接口略有不同。它们没有公开“文本输入,文本输出”API,而是公开了一个“聊天消息”作为输入和输出的接口。
Class hierarchy
BaseLanguageModel --> BaseChatModel --> <name> # Examples: ChatOpenAI, ChatGooglePalm
主要助手
AIMessage, BaseMessage, HumanMessage
类¶
Anyscale 聊天大型语言模型。 |
|
Azure ML 在线端点聊天模型。 |
|
|
适用于具有类似 OpenAI API 方案的模型的聊天内容格式化程序。 |
已弃用:保留以实现向后兼容性 |
|
LLaMA 的内容格式化程序。 |
|
Mistral 的内容格式化程序。 |
|
百川聊天模型集成。 |
|
百度千帆聊天模型集成。 |
|
适配器类,用于准备从 Langchain 到聊天模型期望的提示格式的输入。 |
|
coze.com 提供的 ChatCoze 聊天模型 API |
|
Dappier 聊天大型语言模型。 |
|
Databricks 聊天模型 API。 |
|
使用 DeepInfra API 的聊天模型。 |
|
当 DeepInfra API 返回错误时引发的异常。 |
|
EdenAI 聊天大型语言模型。 |
|
EverlyAI 聊天大型语言模型。 |
|
用于测试目的的 Fake ChatModel。 |
|
用于测试目的的 Fake ChatModel。 |
|
用于聊天的 Friendli LLM。 |
|
GigaChat 大型语言模型 API。 |
|
Google PaLM 聊天模型 API。 |
|
Google PaLM API 错误。 |
|
Writesonic Inc. 的 GPTRouter。 |
|
GPTRouter API 错误 |
|
GPTRouter 模型。 |
|
ChatModel,它将用户输入作为响应返回。 |
|
腾讯提供的腾讯混元聊天模型 API。 |
|
Javelin AI Gateway 聊天模型 API。 |
|
Javelin AI Gateway LLM 的参数。 |
|
Jina AI 聊天模型 API。 |
|
Kinetica LLM 聊天模型 API。 |
|
从 Kinetica LLM 获取并返回数据。 |
|
包含 SQL 和获取的数据的响应。 |
|
Kinetica 实用程序函数。 |
|
ChatKonko 聊天大型语言模型 API。 |
|
使用 LiteLLM API 的聊天模型。 |
|
LiteLLM I/O 库错误 |
|
LiteLLM Router 作为 LangChain 模型。 |
|
通过 llama-api-server 与 LLM 聊天 |
|
llama.cpp 模型。 |
|
MariTalk 聊天模型 API。 |
|
使用 request 和 response 对象初始化 RequestException。 |
|
MiniMax 聊天模型集成。 |
|
MLflow 聊天模型 API。 |
|
MLflow AI Gateway 聊天模型 API。 |
|
MLflow AI Gateway LLM 的参数。 |
|
MLX 聊天模型。 |
|
Moonshot 大型语言模型。 |
|
ChatOCIGenAI 聊天模型集成。 |
|
OctoAI 聊天大型语言模型。 |
|
Ollama 在本地运行大型语言模型。 |
|
阿里云 PAI-EAS LLM 服务聊天模型 API。 |
|
Perplexity AI 聊天模型 API。 |
|
PremAI 聊天模型。 |
|
PremAI API 错误。 |
|
PromptLayer 和 OpenAI 聊天大型语言模型 API。 |
|
基于 Snowflake Cortex 的聊天模型 |
|
Snowpark 客户端错误。 |
|
讯飞星火聊天模型集成。 |
|
阿里云通义千问聊天模型集成。 |
|
Volc Engine Maas 托管大量模型。 |
|
YandexGPT 大型语言模型。 |
|
Yi 聊天模型 API。 |
|
Yuan2.0 聊天模型 API。 |
|
智谱 AI 聊天模型集成。 |
函数¶
|
将消息列表格式化为 Anthropic 模型的完整提示 |
用于连接到 SSE 流的异步上下文管理器。 |
|
|
将消息转换为可以传递给 API 的字典。 |
将消息列表转换为 mistral 的提示。 |
|
获取 Cohere 聊天 API 的请求。 |
|
|
获取消息的角色。 |
使用 tenacity 重试异步完成调用。 |
|
使用 tenacity 重试流式处理的完成调用。 |
|
使用 tenacity 重试完成调用。 |
|
定义条件装饰器。 |
|
将字典响应转换为消息。 |
|
|
获取 Friendli 聊天 API 的请求。 |
|
获取消息的角色。 |
使用 tenacity 重试异步完成调用。 |
|
|
使用 tenacity 重试完成调用。 |
使用 tenacity 重试异步完成调用。 |
|
使用 tenacity 重试完成调用。 |
|
返回模型路由器输入的正文。 |
|
使用 tenacity 重试异步完成调用。 |
|
使用 tenacity 重试异步完成调用。 |
|
从使用情况和参数获取 llm 输出。 |
|
将消息列表转换为 llama 的提示。 |
|
用于连接到 SSE 流的异步上下文管理器。 |
|
用于连接到 SSE 流的上下文管理器。 |
|
使用 tenacity 重试异步完成调用。 |
|
|
在完成调用中使用 tenacity 进行重试 |
为 PremAI API 错误创建重试装饰器。 |
|
将字典转换为消息。 |
|
将消息块转换为消息。 |
|
将消息转换为字典。 |
|
将字典转换为消息。 |
|
使用 tenacity 重试异步完成调用。 |
|
使用 tenacity 重试完成调用。 |
|
|
|
使用 tenacity 重试异步完成调用。 |
|
|
用于连接到 SSE 流的异步上下文管理器。 |
|
用于连接到 SSE 流的上下文管理器。 |
已弃用的类¶
0.0.28 版本后已弃用: 请使用 |
|
0.0.10 版本后已弃用: 请使用 |
|
0.0.34 版本后已弃用: 请使用 |
|
0.0.30 版本后已弃用: 请使用 |
|
0.0.13 版本后已弃用: 请使用 |
|
0.0.26 版本后已弃用: 请使用 |
|
0.0.37 版本后已弃用: 请使用 |
|
0.0.10 版本后已弃用: 请使用 |
|
0.0.34 版本后已弃用: 请使用 |
|
0.0.12 版本后已弃用: 请使用 |
langchain_community.cross_encoders
¶
- Cross encoders(交叉编码器) 是不同 API 和服务的交叉编码器模型的包装器。
服务。
Cross encoder models(交叉编码器模型) 可以是 LLM,也可以不是。
Class hierarchy
BaseCrossEncoder --> <name>CrossEncoder # Examples: SagemakerEndpointCrossEncoder
类¶
Fake 交叉编码器模型。 |
|
HuggingFace 交叉编码器模型。 |
|
|
CrossEncoder 类的内容处理程序。 |
|
SageMaker 推理 CrossEncoder 端点。 |
langchain_community.docstore
¶
Docstores(文档存储) 是用于存储和加载文档的类。
Docstore(文档存储) 是 Document Loader(文档加载器)的简化版本。
Class hierarchy
Docstore --> <name> # Examples: InMemoryDocstore, Wikipedia
主要助手
Document, AddableMixin
类¶
|
通过任意查找函数的文档存储。 |
支持添加文本的 Mixin 类。 |
|
访问存储文档的位置的接口。 |
|
|
以字典形式存在的简单内存文档存储。 |
Wikipedia API. |
langchain_community.document_compressors
¶
类¶
使用DashScope Rerank API的文档压缩器。 |
|
使用 Flashrank 接口的文档压缩器。 |
|
使用Jina Rerank API的文档压缩器。 |
|
使用 LLMLingua 项目进行压缩。 |
|
OpenVINO 重排序模型。 |
|
重排序请求。 |
|
一个枚举。 |
|
使用 Flashrank 接口的文档压缩器。 |
|
使用Volcengine Rerank API的文档压缩器。 |
langchain_community.document_loaders
¶
文档加载器是用于加载文档的类。
文档加载器通常用于在单次运行中加载大量文档。
Class hierarchy
BaseLoader --> <name>Loader # Examples: TextLoader, UnstructuredFileLoader
主要助手
Document, <name>TextSplitter
类¶
|
从目录加载 acreom vault。 |
使用使用 CDK 实现的 Airbyte 源连接器进行加载。 |
|
使用 Airbyte 源连接器从 Gong 加载。 |
|
使用 Airbyte 源连接器从 Hubspot 加载。 |
|
使用 Airbyte 源连接器从 Salesforce 加载。 |
|
使用 Airbyte 源连接器从 Shopify 加载。 |
|
使用 Airbyte 源连接器从 Stripe 加载。 |
|
使用 Airbyte 源连接器从 Typeform 加载。 |
|
使用 Airbyte 源连接器从 Zendesk Support 加载。 |
|
加载本地 Airbyte json 文件。 |
|
加载 Airtable 表格。 |
|
从 Apify 网络抓取、爬取和数据提取平台加载数据集。 |
|
从 ArcGIS FeatureLayer 加载记录。 |
|
|
从 Arxiv 加载查询结果。 |
加载 AssemblyAI 音频转录。 |
|
|
加载 AssemblyAI 音频转录。 |
用于文档加载器的转录格式。 |
|
异步加载 HTML。 |
|
|
从 AWS Athena 加载文档。 |
加载 AZLyrics 网页。 |
|
从 Azure AI Data 加载。 |
|
|
从 Azure Blob Storage 容器加载。 |
|
从 Azure Blob Storage 文件加载。 |
|
从 Baidu BOS directory 加载。 |
|
从 Baidu Cloud BOS 文件加载。 |
所有使用 O365 Package 的加载器的基类 |
|
|
加载 bibtex 文件。 |
从 BiliBili 视频加载获取的转录。 |
|
加载 Blackboard 课程。 |
|
|
从云 URL 或 file: 加载 blobs。 |
|
加载本地文件系统中的 blobs。 |
|
将 YouTube 网址加载为音频文件。 |
从区块链智能合约加载元素。 |
|
支持的区块链的枚举器。 |
|
使用 Brave Search 引擎加载。 |
|
使用托管在 Browserbase 上的无头浏览器加载预渲染的网页。 |
|
使用 Browserless /content 端点加载网页。 |
|
用于 Apache Cassandra 的文档加载器。 |
|
|
从导出的 ChatGPT 数据加载对话。 |
Microsoft Compiled HTML Help (CHM) 解析器。 |
|
使用 Unstructured 加载 CHM 文件。 |
|
使用 Chromium 的无头实例从 URL 抓取 HTML 页面。 |
|
|
加载 College Confidential 网页。 |
并发加载和解析文档。 |
|
加载 Confluence 页面。 |
|
Confluence 页面内容格式的枚举器。 |
|
|
加载 CoNLL-U 文件。 |
从 Couchbase 加载文档。 |
|
|
将 CSV 文件加载到文档列表中。 |
使用 Unstructured 加载 CSV 文件。 |
|
加载 Cube semantic layer 元数据。 |
|
加载 Datadog 日志。 |
|
使用 dataframe 对象初始化。 |
|
加载 Pandas DataFrame。 |
|
使用 dedoc API 加载文件。文件加载器自动检测文件类型(即使扩展名错误)。默认情况下,加载器调用本地托管的 dedoc API。dedoc API 的更多信息可以在 dedoc 文档中找到:https://dedoc.readthedocs.io/en/latest/dedoc_api_usage/api.html。 |
|
使用 dedoc 的基类加载器 (https://dedoc.readthedocs.io)。 |
|
DedocFileLoader 文档加载器集成,用于使用 dedoc 加载文件。 |
|
加载 Diffbot json 文件。 |
|
从目录加载。 |
|
加载 Discord 聊天日志。 |
|
|
使用 Azure Document Intelligence 加载 PDF。 |
从 Docusaurus 文档加载。 |
|
从 Dropbox 加载文件。 |
|
从 DuckDB 加载。 |
|
使用 extract_msg 加载 Outlook 消息文件。 |
|
使用 Unstructured 加载电子邮件文件。 |
|
使用 Unstructured 加载 EPub 文件。 |
|
从 Ethereum 主网加载交易。 |
|
从 EverNote 加载。 |
|
使用 Unstructured 加载 Microsoft Excel 文件。 |
|
加载 Facebook Chat 消息目录转储。 |
|
|
从 FaunaDB 加载。 |
加载 Figma 文件。 |
|
使用 FireCrawl 将网页加载为文档。 |
|
通用文档加载器。 |
|
加载 geopandas Dataframe。 |
|
|
加载 Git 仓库文件。 |
|
加载 GitBook 数据。 |
加载 GitHub 仓库 Issues。 |
|
加载 GitHub 仓库的问题。 |
|
加载 GitHub 文件 |
|
从 AWS Glue 加载表模式。 |
|
从 Gutenberg.org 加载。 |
|
文件编码,如 NamedTuple。 |
|
|
加载 Hacker News 数据。 |
使用 Unstructured 加载 HTML 文件。 |
|
|
加载 HTML 文件并使用 beautiful soup 解析它们。 |
|
从 Hugging Face Hub 数据集加载。 |
|
从 Hugging Face Hub 加载模型信息,包括 README 内容。 |
|
加载 iFixit 维修指南、设备维基和答案。 |
使用 Unstructured 加载 PNG 和 JPG 文件。 |
|
加载图像标题。 |
|
加载 IMSDb 网页。 |
|
|
从 IUGU 加载。 |
从 Joplin 加载笔记。 |
|
使用 jq 模式加载 JSON 文件。 |
|
从 Kinetica API 加载。 |
|
lakeFS 的客户端。 |
|
|
从 lakeFS 加载。 |
从 lakeFS 加载为非结构化数据。 |
|
从 LarkSuite (FeiShu) 加载。 |
|
从 LarkSuite (FeiShu) wiki 加载。 |
|
使用 LLMSherpa 加载文档。 |
|
使用 Unstructured 加载 Markdown 文件。 |
|
加载 Mastodon 'toots'。 |
|
从 Alibaba Cloud MaxCompute 表加载。 |
|
从 XML 文件加载 MediaWiki 转储。 |
|
合并来自加载器列表的文档 |
|
|
使用 BeautifulSoup 解析 MHTML 文件。 |
从区块链智能合约加载元素。 |
|
从 Modern Treasury 加载。 |
|
加载 MongoDB 文档。 |
|
|
使用 Unstructured 从 URL 加载新闻文章。 |
加载 Jupyter notebook (.ipynb) 文件。 |
|
加载 Notion directory 转储。 |
|
从 Notion DB 加载。 |
|
|
使用 Nuclia Understanding API 从任何文件类型加载。 |
从 Huawei OBS directory 加载。 |
|
从 Huawei OBS file 加载。 |
|
从目录加载 Obsidian 文件。 |
|
使用 Unstructured 加载 OpenOffice ODT 文件。 |
|
从 Microsoft OneDrive 加载。 |
|
从 Microsoft OneDrive 加载文件。 |
|
从 OneNote 笔记本加载页面。 |
|
从 Open City 加载。 |
|
|
从 oracle adb 加载 |
使用 OracleDocLoader 读取文档 :param conn: Oracle 连接, :param params: 加载器参数。 |
|
读取文件 |
|
使用 Oracle chunker 分割文本。 |
|
解析 Oracle 文档元数据... |
|
使用 Unstructured 加载 Org-Mode 文件。 |
|
使用 faster-whisper 转录和解析音频文件。 |
|
转录和解析音频文件。 |
|
|
使用 OpenAI Whisper 模型转录和解析音频文件。 |
转录和解析音频文件。 |
|
|
使用 Azure Document Intelligence (以前称为 Forms Recognizer) 加载 PDF。 |
用于存储 Document AI 解析结果的数据类。 |
|
使用 mime 类型解析 blob 的解析器。 |
|
使用 Grobid 加载文章 PDF 文件。 |
|
当 Grobid 服务器不可用时引发的异常。 |
|
使用 Beautiful Soup 解析 HTML 文件。 |
|
C 语言的代码分段器。 |
|
|
COBOL 语言的代码分段器。 |
|
代码分段器的抽象类。 |
C++ 语言的代码分段器。 |
|
|
C# 语言的代码分段器。 |
|
Elixir 语言的代码分段器。 |
Go 语言的代码分段器。 |
|
Java 语言的代码分段器。 |
|
|
JavaScript 语言的代码分段器。 |
|
Kotlin 语言的代码分段器。 |
|
使用各自的编程语言语法进行解析。 |
Lua 语言的代码分段器。 |
|
Perl 语言的代码分段器。 |
|
PHP 语言的代码分段器。 |
|
|
Python 语言的代码分段器。 |
Ruby 语言的代码分段器。 |
|
Rust 语言的代码分段器。 |
|
|
Scala 语言的代码分段器。 |
|
`使用 tree-sitter 库的 CodeSegmenter 的抽象类。 |
|
TypeScript 语言的代码分段器。 |
解析来自 blob 的 Microsoft Word 文档。 |
|
将 PDF 文件发送到 Amazon Textract 并解析它们。 |
|
|
使用 Azure Document Intelligence (以前称为 Form Recognizer) 加载 PDF,并在字符级别进行分块。 |
使用 PDFMiner 解析 PDF。 |
|
使用 PDFPlumber 解析 PDF。 |
|
使用 PyMuPDF 解析 PDF。 |
|
使用 pypdf 加载 PDF |
|
使用 PyPDFium2 解析 PDF。 |
|
文本 blobs 的解析器。 |
|
vsdx 文件的解析器。 |
|
从本地文件系统、HTTP 或 S3 加载 PDF 文件。 |
|
|
用于 PDF 文件的基础加载器类。 |
|
DedocPDFLoader 文档加载器集成,用于使用 dedoc 加载 PDF 文件。文件加载器可以自动检测 PDF 文档中文本层的正确性。请注意,__init__ 方法支持与 DedocBaseLoader 的参数不同的参数。 |
使用 Azure Document Intelligence 加载 PDF |
|
|
使用 Mathpix 服务加载 PDF 文件。 |
|
加载在线 PDF。 |
|
使用 PDFMiner 加载 PDF 文件。 |
使用 PDFMiner 将 PDF 文件加载为 HTML 内容。 |
|
|
使用 pdfplumber 加载 PDF 文件。 |
|
|
|
使用 PyMuPDF 加载 PDF 文件。 |
使用 pypdf 加载包含 PDF 文件的目录,并在字符级别进行分块。 |
|
|
使用 pypdf 将 PDF 加载到文档列表中。 |
|
使用 pypdfium2 加载 PDF,并在字符级别进行分块。 |
使用 Unstructured 加载 PDF 文件。 |
|
Pebblo Safe Loader 类是文档加载器的包装器,使数据能够被审查。 |
|
|
加载 Polars DataFrame。 |
|
使用 Unstructured 加载 Microsoft PowerPoint 文件。 |
从 Psychic.dev 加载。 |
|
从 PubMed 生物医学库加载。 |
|
|
加载 PySpark DataFrame。 |
|
加载 Python 文件,如果指定,则遵循任何非默认编码。 |
|
加载 Quip 页面。 |
加载 ReadTheDocs 文档目录。 |
|
|
从根 URL 递归加载所有子链接。 |
加载 Reddit 帖子。 |
|
从目录加载 Roam 文件。 |
|
未找到列错误。 |
|
从 Rockset 数据库加载。 |
|
|
从 RSpace 笔记本、文件夹、文档或 PDF 图库文件加载内容。 |
|
使用 Unstructured 从 RSS 源加载新闻文章。 |
使用 Unstructured 加载 RST 文件。 |
|
使用 Unstructured 加载 RTF 文件。 |
|
从 Amazon AWS S3 目录加载。 |
|
|
从 Amazon AWS S3 文件加载。 |
使用 Scrapfly.io 将 URL 转换为 LLM 可访问的 markdown。 |
|
使用 ScrapingAnt 将 URL 转换为 LLM 可访问的 markdown。 |
|
从 SharePoint 加载。 |
|
|
加载站点地图及其 URL。 |
从 Slack 目录转储加载。 |
|
从 Snowflake API 加载。 |
|
使用 Spider AI 将网页加载为文档。 |
|
从 Spreedly API 加载。 |
|
通过查询 SQLAlchemy 支持的数据库表来加载文档。 |
|
|
加载 .srt(字幕)文件。 |
|
从 Stripe API 加载。 |
加载 SurrealDB 文档。 |
|
加载 Telegram 聊天 json 目录转储。 |
|
从 Telegram chat 转储加载。 |
|
|
从 Tencent Cloud COS 目录加载。 |
从 Tencent Cloud COS 文件加载。 |
|
|
从 TensorFlow Dataset 加载。 |
|
加载文本文件。 |
|
从 TiDB 加载文档。 |
使用 2markdown API 加载 HTML。 |
|
|
加载 TOML 文件。 |
|
从 Trello 板加载卡片。 |
使用 Unstructured 加载 TSV 文件。 |
|
加载 Twitter 推文。 |
|
使用 Unstructured 的基础加载器。 |
|
使用 Unstructured 从远程 URL 加载文件。 |
|
所有评估器的抽象基类。 |
|
使用 Playwright 加载 HTML 页面,并使用 Unstructured 解析。 |
|
|
使用 unstructured 库评估页面 HTML 内容。 |
使用 Selenium 加载 HTML 页面,并使用 Unstructured 解析。 |
|
|
使用文件路径初始化。 |
使用 Open Weather Map API 加载天气数据。 |
|
使用 urllib 加载 HTML 页面,并使用 `BeautifulSoup' 解析它们。 |
|
加载 WhatsApp 消息文本文件。 |
|
从 Wikipedia 加载。 |
|
使用 docx2txt 加载 DOCX 文件,并在字符级别进行分块。 |
|
|
使用 Unstructured 加载 Microsoft Word 文件。 |
使用 Unstructured 加载 XML 文件。 |
|
加载 Xorbits DataFrame。 |
|
通用 Google API 客户端。 |
|
从 YouTube 频道加载所有视频。 |
|
来自 YoutubeLoader 的转录的输出格式。 |
|
|
加载 YouTube 视频转录。 |
|
从 Yuque 加载文档。 |
函数¶
获取指定文件类型的 mime 类型。 |
|
以可读格式组合消息信息,以便使用。 |
|
以可读格式组合消息信息,以便使用。 |
|
尝试检测文件编码。 |
|
以可读格式组合单元格信息,以便使用。 |
|
递归删除换行符,无论它们存储在何种数据结构中。 |
|
|
使用 RapidOCR 从图像中提取文本。 |
按解析器名称获取解析器。 |
|
内容列的默认连接器。 |
|
以可读格式组合消息信息,以便使用。 |
|
将字符串或字符串列表转换为包含元数据的文档列表。 |
|
从 Unstructured API 检索元素列表。 |
|
|
检查已安装的 Unstructured 版本是否超过所讨论功能的最低版本。 |
|
如果 Unstructured 版本未超过指定的最低版本,则引发错误。 |
以可读格式组合消息信息,以便使用。 |
已弃用的类¶
0.0.29 版本后已弃用: 请改用 |
|
0.0.32 版本后已弃用: 请改用 |
|
0.0.24 版本后已弃用: 请改用 |
|
0.0.32 版本后已弃用: 请改用 |
|
0.0.32 版本后已弃用: 请改用 |
|
|
0.0.32 版本后已弃用: 请改用 |
0.0.32 版本后已弃用: 请改用 |
|
0.0.32 版本后已弃用: 请改用 |
|
|
0.2.8 版本后已弃用: 请改用 |
|
0.2.8 版本后已弃用: 请改用 |
|
0.2.8 版本后已弃用: 请改用 |
0.2.8 版本后已弃用: 请改用 |
langchain_community.document_transformers
¶
文档转换器 是用于转换文档的类。
文档转换器 通常用于在单次运行中转换大量文档。
Class hierarchy
BaseDocumentTransformer --> <name> # Examples: DoctranQATransformer, DoctranTextTranslator
主要助手
Document
类¶
|
通过提取特定标签并删除不需要的标签来转换 HTML 内容。 |
|
使用 doctran 从文本文档中提取属性。 |
|
使用 doctran 从文本文档中提取 QA。 |
|
使用 doctran 翻译文本文档。 |
|
对文档向量执行 K-means 聚类。 |
|
通过比较文档的嵌入来删除冗余文档的过滤器。 |
将特定搜索模式的出现替换为替换字符串 |
|
|
重新排序长上下文。 |
|
使用 markdownify 库将 HTML 文档转换为 Markdown 格式,并具有可自定义的选项来处理链接、图像、其他标签和标题样式。 |
|
Nuclia 文本转换器。 |
使用 OpenAI 函数从文档内容中提取元数据标签。 |
函数¶
|
从 BeautifulSoup 元素获取所有可导航字符串。 |
|
将文档列表转换为包含状态的文档列表。 |
|
创建一个 DocumentTransformer,它使用 OpenAI 函数链自动 |
已弃用的类¶
|
0.0.32 版本后已弃用: 请改用 |
langchain_community.embeddings
¶
嵌入模型 是不同 API 和服务的嵌入模型的包装器。
嵌入模型 可以是 LLM,也可以不是。
Class hierarchy
Embeddings --> <name>Embeddings # Examples: OpenAIEmbeddings, HuggingFaceEmbeddings
类¶
|
Aleph Alpha 的非对称语义嵌入。 |
Aleph Alpha 语义嵌入的对称版本。 |
|
Anyscale Embeddings API。 |
|
Ascend NPU 加速嵌入模型 |
|
使用 Awa DB 嵌入文档和查询。 |
|
百川文本嵌入模型。 |
|
百度千帆 Embeddings 嵌入模型。 |
|
Bookend AI sentence_transformers 嵌入模型。 |
|
Clarifai 嵌入模型。 |
|
|
Cloudflare Workers AI 嵌入模型。 |
Clova 的嵌入服务。 |
|
DashScope 嵌入模型。 |
|
Databricks 嵌入。 |
|
Deep Infra 的嵌入推理服务。 |
|
EdenAI 嵌入。 |
|
Embaas 的嵌入服务。 |
|
Embaas 嵌入 API 的有效负载。 |
|
Fake 嵌入模型,始终为相同的文本返回相同的嵌入向量。 |
|
Fake 嵌入模型。 |
|
Qdrant FastEmbedding 模型。 |
|
GigaChat Embeddings 模型。 |
|
Google 的 PaLM Embeddings API。 |
|
GPT4All 嵌入模型。 |
|
Gradient.ai 嵌入模型。 |
|
|
已弃用,TinyAsyncGradientEmbeddingClient 已移除。 |
HuggingFace sentence_transformers 嵌入模型。 |
|
使用 HuggingFace API 嵌入文本。 |
|
sentence_transformers 嵌入模型的包装器。 |
|
用于 infinity 包的自托管嵌入模型。 |
|
|
用于嵌入 Infinity 的辅助工具。 |
优化的 Infinity 嵌入模型。 |
|
BGE 嵌入模型的包装器,在 Intel CPU 和 GPU 上具有 IPEX-LLM 优化。 |
|
利用 Itrex 运行时来释放压缩 NLP 模型的性能。 |
|
Javelin AI Gateway 嵌入。 |
|
Jina 嵌入模型。 |
|
JohnSnowLabs 嵌入模型 |
|
LASER 语言无关句子表示。 |
|
llama.cpp 嵌入模型。 |
|
Llamafile 允许您使用单个文件分发和运行大型语言模型。 |
|
LLMRails 嵌入模型。 |
|
LocalAI 嵌入模型。 |
|
MiniMax 嵌入模型集成。 |
|
MLflow 中的 Cohere 嵌入 LLM。 |
|
MLflow 中的嵌入 LLM。 |
|
MLflow AI Gateway 嵌入。 |
|
ModelScopeHub 嵌入模型。 |
|
MosaicML 嵌入服务。 |
|
NLP Cloud 嵌入模型。 |
|
OCI 身份验证类型,作为枚举器。 |
|
OCI 嵌入模型。 |
|
OctoAI Compute Service 嵌入模型。 |
|
Ollama 在本地运行大型语言模型。 |
|
OpenVNO BGE 嵌入模型。 |
|
OpenVINO 嵌入模型。 |
|
量化双编码器嵌入模型。 |
|
获取嵌入 |
|
OVHcloud AI Endpoints 嵌入。 |
|
Prem 的 Embedding API |
|
LLM 类的内容处理程序。 |
|
自定义 Sagemaker 推理端点。 |
|
SambaNova 嵌入模型。 |
|
自托管远程硬件上的自定义嵌入模型。 |
|
|
自托管远程硬件上的 HuggingFace 嵌入模型。 |
|
自托管远程硬件上的 HuggingFace InstructEmbedding 模型。 |
spaCy 模型的嵌入。 |
|
为标头组装中的错误引发的异常。 |
|
SparkLLM 嵌入模型集成。 |
|
|
用于解析 URL 的 URL 类。 |
TensorflowHub 嵌入模型。 |
|
text2vec 嵌入模型。 |
|
|
用于处理 TextEmbed API 的同步和异步请求的客户端。 |
用于处理 TextEmbed API 的嵌入请求的类。 |
|
用于推理的设备,cuda 或 cpu。 |
|
在初始化 TitanTakeoffEmbed 或嵌入请求时未提供消费者组时引发的异常。 |
|
要在 Takeoff 中部署的阅读器的配置。 |
|
用于与 Takeoff Embedding 类交互的自定义异常。 |
|
用于嵌入模型的 Takeoff Inference API 接口。 |
|
Volcengine Embeddings 嵌入模型。 |
|
Xinference 嵌入模型。 |
|
YandexGPT Embeddings 模型。 |
|
ZhipuAI 嵌入模型集成。 |
函数¶
使用 tenacity 重试 embedding 调用。 |
|
使用 tenacity 重试完成调用。 |
|
|
获取文件的字节字符串。 |
检查 URL 是否为本地文件。 |
|
使用 tenacity 重试 embedding 调用。 |
|
使用 tenacity 重试 embedding 调用。 |
|
使用 tenacity 重试完成调用。 |
|
|
通过向指定的 URL 发送 GET 请求来检查端点是否处于活动状态。 |
使用 tenacity 重试 embedding 调用。 |
|
使用 tenacity 重试 embedding 调用。 |
|
为 PremAIEmbeddings 创建重试装饰器。 |
|
|
在 embedding 调用中使用 tenacity 进行重试 |
|
加载 embedding 模型。 |
使用 tenacity 重试完成调用。 |
|
使用 tenacity 重试 embedding 调用。 |
已弃用的类¶
0.0.9 版本后已弃用: 使用 |
|
0.2.11 版本后已弃用: 使用 |
|
0.0.30 版本后已弃用: 使用 |
|
0.1.11 版本后已弃用: 使用 |
|
0.0.13 版本后已弃用: 使用 |
|
0.2.2 版本后已弃用: 使用 |
|
0.2.2 版本后已弃用: 使用 |
|
0.0.37 版本后已弃用: 直接从 langchain-community 实例化 NeMoEmbeddings 已弃用。请使用 langchain-nvidia-ai-endpoints NVIDIAEmbeddings 接口。 |
|
0.0.9 版本后已弃用: 使用 |
|
0.0.34 版本后已弃用: 请使用 |
|
0.0.12 版本后已弃用: 使用 |
|
0.0.29 版本后已弃用: 使用 |
langchain_community.example_selectors
¶
示例选择器 实现了用于选择要包含在提示中的示例的逻辑。这允许我们选择与输入最相关的示例。
可能存在多种选择示例的策略。例如,一种策略可以基于输入与示例的相似性来选择示例。另一种策略可以是基于示例的多样性来选择示例。
类¶
基于 n-gram 重叠分数(来自 NLTK 包的 sentence_bleu 分数)选择和排序示例。 |
函数¶
计算源和示例的 n-gram 重叠分数,作为来自 NLTK 包的 sentence_bleu 分数。 |
langchain_community.graph_vectorstores
¶
类¶
创建混合图存储。 |
|
|
使用 GLiNER <https://github.com/urchade/GLiNER> 将文档与常见的命名实体链接起来。 |
|
从文档层次结构中提取链接。 |
|
|
|
从 HTML 内容中提取超链接。 |
|
使用 KeyBERT <https://maartengr.github.io/KeyBERT/> 提取关键词。 |
|
用于提取链接(传入、传出、双向)的接口。 |
|
|
|
用于应用一个或多个 LinkExtractor 的 DocumentTransformer。 |
langchain_community.graphs
¶
图 提供了一个与图数据库进行自然语言交互的接口。
类¶
|
用于图操作的 Apache AGE 包装器。 |
|
AGE 查询的异常。 |
用于图操作的 ArangoDB 包装器。 |
|
|
用于图操作的 FalkorDB 包装器。 |
表示由节点和关系组成的图文档。 |
|
表示图中具有关联属性的节点。 |
|
表示图中两个节点之间的有向关系。 |
|
用于图操作的抽象类。 |
|
|
用于图操作的 Gremlin 包装器。 |
|
用于图操作的 HugeGraph 包装器。 |
创建图索引的功能。 |
|
|
用于图操作的 Kùzu 包装器。 |
|
用于图操作的 Memgraph 包装器。 |
|
用于图操作的 NebulaGraph 包装器。 |
|
用于各种图操作的 Neo4j 数据库包装器。 |
Neptune 的抽象基类 |
|
用于图操作的 Neptune Analytics 包装器。 |
|
|
用于图操作的 Neptune 包装器。 |
Neptune 查询的异常。 |
|
用于 RDF 图操作的 Neptune 包装器。 |
|
图中的知识三元组。 |
|
用于实体图操作的 Networkx 包装器。 |
|
Ontotext GraphDB https://graphdb.ontotext.com/ 用于图操作的包装器。 |
|
|
用于图操作的 RDFlib 包装器。 |
用于图操作的 TigerGraph 包装器。 |
函数¶
从凭据获取 Arango DB 客户端。 |
|
清理模式的字符串值。 |
|
清理输入字典或列表。 |
|
|
从实体字符串中提取实体。 |
从知识字符串中解析知识三元组。 |
langchain_community.indexes
¶
索引 用于避免将重复内容写入向量存储,并避免在内容未更改时覆盖内容。
索引也
从数据创建知识图谱。
支持从 LangChain 数据加载器到向量存储的索引工作流程。
重要的是,即使要写入的内容是通过一组从某些源内容转换而来的(例如,索引通过分块从父文档派生的子文档),索引也能继续工作。
类¶
|
记录管理器的抽象基类。 |
langchain_community.llms
¶
LLM 类提供对大型语言模型 (LLM) API 和服务的访问。
Class hierarchy
BaseLanguageModel --> BaseLLM --> LLM --> <name> # Examples: AI21, HuggingFaceHub, OpenAI
主要助手
LLMResult, PromptValue,
CallbackManagerForLLMRun, AsyncCallbackManagerForLLMRun,
CallbackManager, AsyncCallbackManager,
AIMessage, BaseMessage
类¶
AI21 大型语言模型。 |
|
AI21 惩罚数据的参数。 |
|
Aleph Alpha 大型语言模型。 |
|
Amazon API Gateway 用于访问托管在 AWS 上的 LLM 模型。 |
|
适配器,用于准备从 Langchain 到 LLM 模型期望格式的输入。 |
|
Anyscale 大型语言模型。 |
|
Aphrodite 语言模型。 |
|
Arcee 的领域自适应语言模型 (DALM)。 |
|
Aviary 托管模型。 |
|
|
Aviary 后端。 |
Azure ML Online Endpoint 模型。 |
|
Azure ML 端点 API 类型。 |
|
AzureML 托管端点客户端。 |
|
Azure ML Online Endpoint 模型。 |
|
转换 AzureML 端点的请求和响应,以匹配所需的模式。 |
|
用于使用类似 OpenAI API 方案的模型的 Content formatter。 |
|
Dolly-v2-12b 模型的 Content handler |
|
GPT2 的 Content handler |
|
来自 HuggingFace 目录的 LLM 的 Content handler。 |
|
已弃用:保留以实现向后兼容性 |
|
已弃用:保留以实现向后兼容性 |
|
百川大型语言模型。 |
|
百度千帆托管的开源或定制模型。 |
|
Banana 大型语言模型。 |
|
Baseten 模型 |
|
用于 gpt2 大型语言模型的 Beam API。 |
|
Bedrock 模型的基础类。 |
|
适配器类,用于准备从 Langchain 到 LLM 模型期望格式的输入。 |
|
BigdlLLM 模型的包装器 |
|
NIBittensor LLM |
|
CerebriumAI 大型语言模型。 |
|
ChatGLM LLM 服务。 |
|
ChatGLM3 LLM 服务。 |
|
Clarifai 大型语言模型。 |
|
Cloudflare Workers AI 服务。 |
|
C Transformers LLM 模型。 |
|
CTranslate2 语言模型。 |
|
Databricks 服务端点或 LLM 的集群驱动程序代理应用程序。 |
|
DeepInfra 模型。 |
|
Neural Magic DeepSparse LLM 接口。 |
|
EdenAI 模型。 |
|
ExllamaV2 API。 |
|
用于测试目的的 Fake LLM。 |
|
用于测试目的的 Fake 流式列表 LLM。 |
|
ForefrontAI 大型语言模型。 |
|
Friendli 的基类。 |
|
Friendli LLM。 |
|
GigaChat 大型语言模型 API。 |
|
GooseAI 大型语言模型。 |
|
GPT4All 语言模型。 |
|
Gradient.ai LLM 端点。 |
|
训练结果。 |
|
用户输入作为响应。 |
|
IpexLLM 模型。 |
|
Javelin AI Gateway LLM。 |
|
Javelin AI Gateway LLM 的参数。 |
|
Kobold API 语言模型。 |
|
Konko AI 模型。 |
|
Layerup Security LLM 服务。 |
|
llama.cpp 模型。 |
|
Llamafile 允许您使用单个文件分发和运行大型语言模型。 |
|
HazyResearch 的 Manifest 库。 |
|
Minimax 大型语言模型。 |
|
Minimax 大型语言模型的常用参数。 |
|
MLflow LLM 服务。 |
|
MLflow AI Gateway LLM。 |
|
MLflow AI Gateway LLM 的参数。 |
|
MLX Pipeline API。 |
|
Modal 大型语言模型。 |
|
Moonshot 大型语言模型。 |
|
Moonshot LLM 的常用参数。 |
|
MosaicML LLM 服务。 |
|
NLPCloud 大型语言模型。 |
|
|
部署在 OCI Data Science Model Deployment 上的 LLM 的基类。 |
|
OCI Data Science Model Deployment TGI 端点。 |
|
部署在 OCI Data Science Model Deployment 上的 VLLM |
OCI 身份验证类型,作为枚举器。 |
|
OCI 大型语言模型。 |
|
OCI GenAI 模型的基础类 |
|
OctoAI LLM 端点 - 兼容 OpenAI。 |
|
Ollama 在本地运行大型语言模型。 |
|
当找不到 Ollama 端点时引发。 |
|
使用 OpaquePrompts 清理提示的 LLM。 |
|
基础 OpenAI 大型语言模型类。 |
|
用于将模型标识为类型化字典的参数。 |
|
OpenLLM,支持进程内模型实例和远程 OpenLLM 服务器。 |
|
OpenLM 模型。 |
|
Langchain LLM 类,用于帮助访问 eass llm 服务。 |
|
Petals Bloom 模型。 |
|
PipelineAI 大型语言模型。 |
|
将您的 Predibase 模型与 Langchain 一起使用。 |
|
Prediction Guard 大型语言模型。 |
|
PromptLayer OpenAI 大型语言模型。 |
|
PromptLayer OpenAI 大型语言模型。 |
|
Replicate 模型。 |
|
RWKV 语言模型。 |
|
Handler 类,用于将来自 LLM 的输入转换为 SageMaker 端点期望的格式。 |
|
LLM 类的内容处理程序。 |
|
解析字节流输入。 |
|
Sagemaker 推理端点模型。 |
|
|
SambaNova Systems 用于 SambaStudio 模型端点的接口。 |
|
SambaNova Systems 用于 Sambaverse 端点的接口。 |
SambaStudio 大型语言模型。 |
|
Sambaverse 大型语言模型。 |
|
在自托管远程硬件上的模型推理。 |
|
HuggingFace Pipeline API,可在自托管远程硬件上运行。 |
|
Solar 大型语言模型。 |
|
Solar LLM 的通用配置。 |
|
iFlyTek Spark 大型语言模型。 |
|
StochasticAI 大型语言模型。 |
|
Nebula Service 模型。 |
|
来自 WebUI 的文本生成模型。 |
|
|
用于推理的设备,cuda 或 cpu |
要在 Titan Takeoff API 中部署的读取器的配置。 |
|
Titan Takeoff API LLM。 |
|
通义千问大型语言模型。 |
|
VLLM 语言模型。 |
|
vLLM 兼容 OpenAI 的 API 客户端 |
|
VolcEngineMaas 模型的基础类。 |
|
火山引擎 maas 托管了大量的模型。 |
|
仅权重量化模型。 |
|
Writer 大型语言模型。 |
|
Xinference 大型模型推理服务。 |
|
Yandex 大型语言模型。 |
|
Yi 大型语言模型。 |
|
You.com 对话式智能和研究 API 的包装器。 |
|
Yuan2.0 语言模型。 |
函数¶
|
从 choices 和 prompts 创建 LLMResult。 |
|
更新令牌使用情况。 |
|
从 Aviary 模型获取 completions。 |
列出可用模型 |
|
|
使用 tenacity 重试完成调用。 |
|
使用 tenacity 重试完成调用。 |
获取默认的 Databricks 个人访问令牌。 |
|
获取默认的 Databricks 工作区主机名。 |
|
如果在 Databricks 笔记本中运行,则获取笔记本 REPL 上下文。 |
|
|
使用 tenacity 重试完成调用。 |
使用 tenacity 重试完成调用。 |
|
使用 tenacity 重试流式处理的完成调用。 |
|
|
使用 tenacity 重试完成调用。 |
使用 tenacity 重试完成调用。 |
|
有条件地应用装饰器。 |
|
|
使用 tenacity 重试完成调用。 |
如果存在,则从 url 中删除尾部斜杠和 /api。 |
|
|
默认的护栏违规处理程序。 |
|
从文件加载 LLM。 |
|
从 Config Dict 加载 LLM。 |
|
使用 tenacity 重试异步完成调用。 |
|
使用 tenacity 重试完成调用。 |
|
更新令牌使用情况。 |
使用 tenacity 重试完成调用。 |
|
|
从模型生成文本。 |
从异步可迭代对象生成元素,并生成一个布尔值,指示它是否是最后一个元素。 |
|
|
stream_generate_with_retry 的异步版本。 |
检查来自 completion 调用的响应。 |
|
从可迭代对象生成元素,并生成一个布尔值,指示它是否是最后一个元素。 |
|
|
使用 tenacity 重试完成调用。 |
|
使用 tenacity 重试完成调用。 |
|
一旦出现任何停止词,立即截断文本。 |
|
使用 tenacity 重试完成调用。 |
|
使用 tenacity 重试完成调用。 |
|
如果模型名称是 Codey 模型,则返回 True。 |
|
如果模型名称是 Gemini 模型,则返回 True。 |
|
使用 tenacity 重试异步完成调用。 |
|
使用 tenacity 重试完成调用。 |
已弃用的类¶
0.0.28 版本后已弃用: 使用 |
|
0.0.34 版本后已弃用: 使用 |
|
0.0.30 版本后已弃用: 使用 |
|
0.1.14 版本后已弃用: 使用 |
|
0.0.26 版本后已弃用: 使用 |
|
0.0.12 版本后已弃用: 使用 |
|
0.0.37 版本后已弃用: 使用 |
|
0.0.21 版本后已弃用: 使用 |
|
0.0.37 版本后已弃用: 使用 |
|
|
0.0.21 版本后已弃用: 使用 |
自 0.0.10 版本起已弃用: 请使用 |
|
自 0.0.10 版本起已弃用: 请使用 |
|
自 0.0.1 版本起已弃用: 请使用 |
|
自 0.0.12 版本起已弃用: 请使用 |
|
自 0.0.12 版本起已弃用: 请使用 |
|
自 0.0.12 版本起已弃用: 请使用 |
|
自 0.0.18 版本起已弃用: 请使用 |
langchain_community.memory
¶
类¶
知识图谱对话记忆。 |
|
由 Motorhead 服务支持的聊天消息记忆。 |
|
将您的链历史记录持久化到 Zep MemoryStore。 |
langchain_community.output_parsers
¶
OutputParser 类解析 LLM 调用的输出。
Class hierarchy
BaseLLMOutputParser --> BaseOutputParser --> <name>OutputParser # GuardrailsOutputParser
主要助手
Serializable, Generation, PromptValue
类¶
将输出解析为 Json 对象的元素。 |
|
将输出解析为 Json 对象。 |
|
解析作为值集之一的输出。 |
|
|
将输出解析为 pydantic 对象的属性。 |
|
将输出解析为 pydantic 对象。 |
使用 Guardrails 解析 LLM 调用的输出。 |
langchain_community.query_constructors
¶
类¶
将 AstraDB 内部查询语言元素转换为有效过滤器。 |
|
将 Chroma 内部查询语言元素转换为有效过滤器。 |
|
用于将内部查询语言元素转换为有效过滤器的逻辑。 |
|
|
将 Databricks vector search 内部查询语言元素转换为有效过滤器。 |
将 DeepLake 内部查询语言元素转换为有效过滤器。 |
|
将 DingoDB 内部查询语言元素转换为有效过滤器。 |
|
将 Elasticsearch 内部查询语言元素转换为有效过滤器。 |
|
将内部查询语言元素转换为 HANA vectorstore 的有效过滤器参数。 |
|
将 Milvus 内部查询语言元素转换为有效过滤器。 |
|
将 Mongo 内部查询语言元素转换为有效过滤器。 |
|
将 MyScale 内部查询语言元素转换为有效过滤器。 |
|
将 OpenSearch 内部查询特定领域语言元素转换为有效过滤器。 |
|
将 PGVector 内部查询语言元素转换为有效过滤器。 |
|
将 Pinecone 内部查询语言元素转换为有效过滤器。 |
|
将 Qdrant 内部查询语言元素转换为有效过滤器。 |
|
用于将结构化查询转换为 Redis 过滤器表达式的访问器。 |
|
将 Langchain 过滤器转换为 Supabase PostgREST 过滤器。 |
|
|
将 StructuredQuery 转换为 Tencent VectorDB 查询。 |
|
将内部查询语言元素转换为有效过滤器。 |
将 Vectara 内部查询语言元素转换为有效过滤器。 |
|
将 Weaviate 内部查询语言元素转换为有效过滤器。 |
函数¶
检查字符串是否可以转换为浮点数。 |
|
将值转换为字符串,如果它是字符串,则添加双引号。 |
|
将值转换为字符串,如果它是字符串,则添加单引号。 |
langchain_community.retrievers
¶
Retriever 类返回给定文本 query 的文档。
它比向量存储更通用。检索器不需要能够存储文档,只需要返回(或检索)它。向量存储可以用作检索器的骨干,但也存在其他类型的检索器。
Class hierarchy
BaseRetriever --> <name>Retriever # Examples: ArxivRetriever, MergerRetriever
主要助手
Document, Serializable, Callbacks,
CallbackManagerForRetrieverRun, AsyncCallbackManagerForRetrieverRun
类¶
Arcee 领域自适应语言模型 (DALMs) 检索器。 |
|
Arxiv 检索器。 |
|
AskNews 检索器。 |
|
Azure AI Search 服务检索器。 |
|
Azure Cognitive Search 服务检索器。 |
|
Amazon Bedrock Knowledge Bases 检索。 |
|
检索配置。 |
|
向量搜索配置。 |
|
没有 Elasticsearch 的 BM25 检索器。 |
|
Breebs 的检索器类。 |
|
Chaindesk API 检索器。 |
|
ChatGPT plugin 检索器。 |
|
Databerry API 检索器。 |
|
DocArray Document Indices 检索器。 |
|
要执行的搜索类型枚举器。 |
|
使用 DriaAPIWrapper 的 Dria 检索器。 |
|
使用 BM25 的 Elasticsearch 检索器。 |
|
Embedchain 检索器。 |
|
|
Google Vertex Search API 检索器别名,用于向后兼容。 |
Kay.ai 数据集的检索器。 |
|
附加结果属性。 |
|
附加结果属性的值。 |
|
Amazon Kendra Index 检索器。 |
|
文档属性。 |
|
文档属性的值。 |
|
突出显示摘录中关键词的信息。 |
|
Amazon Kendra Query API 搜索结果。 |
|
Query API 结果项。 |
|
结果项的基类。 |
|
Amazon Kendra Retrieve API 搜索结果。 |
|
Retrieve API 结果项。 |
|
带有高亮文本的文本。 |
|
KNN 检索器。 |
|
LlamaIndex 图数据结构检索器。 |
|
LlamaIndex 检索器。 |
|
Metal API 检索器。 |
|
Milvus API 检索器。 |
|
`NanoPQ 检索器。 |
|
Outline API 的检索器。 |
|
|
Pinecone Hybrid Search 检索器。 |
PubMed API 检索器。 |
|
|
Qdrant 稀疏向量检索器。 |
Rememberizer 检索器。 |
|
LangChain API 检索器。 |
|
SVM 检索器。 |
|
搜索深度枚举器。 |
|
Tavily Search API 检索器。 |
|
TF-IDF 检索器。 |
|
使用 ThirdAI 的 NeuralDB 的文档检索器。 |
|
Vespa 检索器。 |
|
|
Weaviate hybrid search 检索器。 |
编号问题列表的输出解析器。 |
|
为用户目标研究的搜索查询。 |
|
Google Search API 检索器。 |
|
Wikipedia API 检索器。 |
|
You.com Search API 检索器。 |
|
|
要搜索的文档范围。 |
|
要执行的搜索类型枚举器。 |
Zep MemoryStore 检索器。 |
|
Zep Cloud MemoryStore 检索器。 |
|
Zilliz API 检索器。 |
函数¶
|
清理来自 Kendra 的摘录。 |
将 ResultItem 标题和摘录组合成单个字符串。 |
|
|
为上下文列表创建嵌入索引。 |
|
已弃用的 MilvusRetreiver。 |
|
为上下文列表创建嵌入索引。 |
从上下文列表创建索引。 |
|
使用 SHA256 哈希文本。 |
|
|
为上下文列表创建嵌入索引。 |
|
已弃用的 ZillizRetreiver。 |
已弃用的类¶
自 0.0.30 版本起已弃用: 请使用 |
|
|
自 0.0.32 版本起已弃用: 请使用 |
|
自 0.0.33 版本起已弃用: 请使用 |
|
自 0.0.33 版本起已弃用: 请使用 |
langchain_community.storage
¶
Storage 是键值存储的实现。
Storage 模块提供了符合简单键值接口的各种键值存储的实现。
这些存储的主要目标是支持缓存。
Class hierarchy
BaseStore --> <name>Store # Examples: MongoDBStore, RedisStore
类¶
|
DataStax AstraDB 数据存储的基类。 |
|
使用 Cassandra 作为后端的 ByteStore 实现。 |
|
使用 MongoDB 作为底层存储的 BaseStore 实现。 |
|
使用 MongoDB 作为底层存储的 BaseStore 实现。 |
|
使用 Redis 作为底层存储的 BaseStore 实现。 |
|
用于保存值的表。 |
|
在 SQL 数据库上工作的 BaseStore 接口。 |
使用 Upstash Redis 作为底层存储来存储原始字节的 BaseStore 实现。 |
函数¶
|
已弃用的类¶
|
自 0.0.22 版本起已弃用: 请使用 |
|
自 0.0.22 版本起已弃用: 请使用 |
|
自 0.0.1 版本起已弃用: 请使用 |
langchain_community.tools
¶
Tools 是 Agent 用来与世界交互的类。
每个工具都有一个描述。Agent 使用描述来选择适合工作的工具。
Class hierarchy
ToolMetaclass --> BaseTool --> <name>Tool # Examples: AIPluginTool, BaseGraphQLTool
<name> # Examples: BraveSearch, HumanInputRun
主要助手
CallbackManagerForToolRun, AsyncCallbackManagerForToolRun
类¶
用于应用操作的工具。 |
|
应用操作类型枚举器。 |
|
应用操作的架构。 |
|
AINetwork 工具的基类。 |
|
操作类型枚举器。 |
|
用于所有者操作的工具。 |
|
所有者操作的架构。 |
|
用于所有者操作的工具。 |
|
所有者操作的架构。 |
|
用于转移操作的工具。 |
|
转移操作的架构。 |
|
用于值操作的工具。 |
|
值操作的架构。 |
|
Amadeus 的基础工具。 |
|
用于查找特定位置最近机场的工具。 |
|
AmadeusClosestAirport 工具的架构。 |
|
用于搜索两个机场之间单程航班的工具。 |
|
AmadeusFlightSearch 工具的架构。 |
|
Arxiv 工具的输入。 |
|
搜索 Arxiv API 的工具。 |
|
搜索 AskNews API 的工具。 |
|
AskNews Search 工具的输入。 |
|
|
HuggingFace 文本到语音模型推理。 |
|
查询 Azure AI 服务文档智能 API 的工具。 |
|
查询 Azure AI 服务图像分析 API 的工具。 |
|
查询 Azure AI 服务语音转文本 API 的工具。 |
|
查询 Azure AI 服务健康文本分析 API 的工具。 |
|
查询 Azure AI 服务文本转语音 API 的工具。 |
|
查询 Azure 认知服务表单识别器 API 的工具。 |
|
查询 Azure 认知服务图像分析 API 的工具。 |
|
查询 Azure 认知服务语音转文本 API 的工具。 |
|
查询 Azure 认知服务文本转语音 API 的工具。 |
|
查询 Azure 认知服务健康文本分析 API 的工具。 |
用于在沙盒环境中评估 python 代码的工具。 |
|
BearlyInterpreterTool 的参数。 |
|
关于要上传文件的信息。 |
|
查询 Bing Search API 并返回 json 的工具。 |
|
查询 Bing 搜索 API 的工具。 |
|
查询 BraveSearch 的工具。 |
|
用于与 Apache Cassandra 数据库交互的基础工具。 |
|
|
用于获取 Apache Cassandra 数据库中键空间模式的工具。 |
|
用于从 Apache Cassandra 数据库中的表中获取数据的工具。 |
用于使用提供的 CQL 查询 Apache Cassandra 数据库的工具。 |
|
查询 Clickup API 的工具。 |
|
使用 Cogniswitch 服务来回答问题的工具。 |
|
使用 Cogniswitch 服务从文件存储数据的工具。 |
|
使用 Cogniswitch 服务从 URL 存储数据的工具。 |
|
使用 Cogniswitch 服务获取状态的工具 |
|
Connery Action 模型。 |
|
Connery Action 参数模型。 |
|
Connery Action 参数验证模型。 |
|
用于与 Connery Runner API 交互的服务。 |
|
Connery Action 工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
查询 DataForSeo Google Search API 并返回 json 的工具。 |
|
查询 DataForSeo Google 搜索 API 的工具。 |
|
使用 Dataherald SDK 查询的工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
DuckDuckGo 搜索工具的输入。 |
|
查询 DuckDuckGo 搜索 API 并返回 json 字符串的工具。 |
|
查询 DuckDuckGo 搜索 API 的工具。 |
|
用于在沙盒环境中运行 python 代码以进行数据分析的工具。 |
|
E2BDataAnalysisTool 的参数。 |
|
上传路径及其远程路径的描述。 |
|
遍历 AST 并输出抽象语法的源代码;原始格式将被忽略。 |
|
查询 Eden AI 语音转文本 API 的工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
查询 Eden AI 文本转语音 API 的工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
所有 EdenAI 工具的基础工具。 |
|
查询 Eden AI 显式图像检测的工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
|
查询 Eden AI 对象检测 API 的工具。 |
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
查询 Eden AI 身份解析 API 的工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
查询 Eden AI 发票解析 API 的工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
查询 Eden AI 显式文本检测的工具。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
Eleven Labs 文本转语音可用的模型。 |
|
Eleven Labs 文本转语音可用的模型。 |
|
查询 Eleven Labs 文本转语音 API 的工具。 |
|
复制文件的工具。 |
|
CopyFileTool 的输入。 |
|
删除文件的工具。 |
|
DeleteFileTool 的输入。 |
|
FileSearchTool 的输入。 |
|
用于在子目录中搜索与正则表达式模式匹配的文件的工具。 |
|
ListDirectoryTool 的输入。 |
|
列出指定文件夹中的文件和目录的工具。 |
|
MoveFileTool 的输入。 |
|
移动文件的工具。 |
|
ReadFileTool 的输入。 |
|
读取文件的工具。 |
|
文件系统工具的 Mixin。 |
|
根目录之外路径的错误。 |
|
WriteFileTool 的输入。 |
|
将文件写入磁盘的工具。 |
|
用于与 GitHub API 交互的工具。 |
|
用于与 GitLab API 交互的工具。 |
|
Gmail 工具的基类。 |
|
CreateDraftTool 的输入。 |
|
为 Gmail 创建草稿邮件的工具。 |
|
用于从 Gmail 按 ID 获取邮件的工具。 |
|
GetMessageTool 的输入。 |
|
GetMessageTool 的输入。 |
|
用于从 Gmail 按 ID 获取线程的工具。 |
|
用于在 Gmail 中搜索邮件或线程的工具。 |
|
|
要搜索的资源枚举器。 |
SearchGmailTool 的输入。 |
|
用于向 Gmail 发送邮件的工具。 |
|
SendMessageTool 的输入。 |
|
添加使用 Golden API 查询并返回 JSON 功能的工具。 |
|
查询 Google Finance API 的工具。 |
|
查询 Google Jobs API 的工具。 |
|
查询 Google Lens API 的工具。 |
|
GooglePlacesTool 的输入。 |
|
查询 Google 搜索 API 的工具。 |
|
查询 Serper.dev Google Search API 并返回 json 的工具。 |
|
查询 Serper.dev Google 搜索 API 的工具。 |
|
查询 Google trends API 的工具。 |
|
用于查询 GraphQL API 的基础工具。 |
|
向用户请求输入的工具。 |
|
IFTTT Webhook。 |
|
查询 Atlassian Jira API 的工具。 |
|
用于获取 JSON 规范中值的工具。 |
|
用于列出 JSON 规范中键的工具。 |
|
JSON 规范的基类。 |
|
训练语言模型的工具。 |
|
|
可训练语言模型的协议。 |
搜索 Merriam-Webster API 的工具。 |
|
初始化工具。 |
|
UpdateSessionTool 的输入。 |
|
关闭具有提供字段的现有 Multion 浏览器窗口的工具。 |
|
CreateSessionTool 的输入。 |
|
创建带有指定字段的新 Multion 浏览器窗口的工具。 |
|
更新带有指定字段的现有 Multion 浏览器窗口的工具。 |
|
UpdateSessionTool 的输入。 |
|
查询 Atlassian Jira API 的工具。 |
|
Nuclia Understanding API 的输入。 |
|
使用 Nuclia Understanding API 处理文件的工具。 |
|
Office 365 工具的基础类。 |
|
|
SendMessageTool 的输入。 |
在 Office 365 中创建草稿邮件的工具。 |
|
在 Office 365 中搜索日历事件。 |
|
SearchEmails 工具的输入。 |
|
在 Office 365 中搜索电子邮件。 |
|
SearchEmails 工具的输入。 |
|
在 Office 365 中发送日历事件的工具。 |
|
CreateEvent 工具的输入。 |
|
在 Office 365 中发送电子邮件。 |
|
SendMessageTool 的输入。 |
|
|
使用 OpenAI DALLE 生成图像的工具。 |
单个 API 操作的模型。 |
|
查询、路径、标头或 cookie 参数中属性的模型。 |
|
API 属性的基础模型。 |
|
属性的位置。 |
|
请求主体的模型。 |
|
请求主体属性的模型。 |
|
查询 OpenWeatherMap API 的工具。 |
|
查询 Passio Nutrition AI API 的工具。 |
|
Passio Nutrition AI 工具的输入。 |
|
浏览器工具的基础类。 |
|
用于点击具有给定 CSS 选择器的元素的工具。 |
|
ClickTool 的输入。 |
|
用于获取当前网页 URL 的工具。 |
|
提取页面上的所有超链接。 |
|
|
ExtractHyperlinksTool 的输入。 |
用于提取当前网页上所有文本的工具。 |
|
用于获取当前网页中与 CSS 选择器匹配的元素的工具。 |
|
GetElementsTool 的输入。 |
|
用于将浏览器导航到 URL 的工具。 |
|
NavigateToolInput 的输入。 |
|
在浏览器历史记录中导航回上一页。 |
|
AI 插件定义。 |
|
用于获取 AI 插件的 OpenAPI 规范的工具。 |
|
AIPluginTool 的模式。 |
|
API 配置。 |
|
用于从 Polygon 获取给定股票代码在给定日期范围内的聚合柱(股票价格)的工具。 |
|
PolygonAggregates 的输入。 |
|
Polygon Financials API 的输入 |
|
用于从 Polygon 获取股票代码财务数据的工具 |
|
Polygon Last Quote API 的输入 |
|
用于从 Polygon 获取股票代码最新报价的工具 |
|
Polygon Ticker News API 的输入 |
|
用于从 Polygon 获取给定股票代码的最新新闻的工具 |
|
用于获取关于 PowerBI 数据集元数据的工具。 |
|
用于获取表名称的工具。 |
|
用于查询 Power BI 数据集的工具。 |
|
搜索 PubMed API 的工具。 |
|
在 subreddit 上查询帖子的工具。 |
|
Reddit 搜索的输入。 |
|
请求工具的基础类。 |
|
用于向 API 端点发出 DELETE 请求的工具。 |
|
用于向 API 端点发出 GET 请求的工具。 |
|
用于向 API 端点发出 PATCH 请求的工具。 |
|
用于向 API 端点发出 POST 请求的工具。 |
|
用于向 API 端点发出 PUT 请求的工具。 |
|
通过 Riza 的代码解释器 API 执行 JavaScript 的工具实现。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
通过 Riza 的代码解释器 API 执行 Python 的工具实现。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
SceneXplain 的输入。 |
|
解释图像的工具。 |
|
查询 SearchApi.io 搜索 API 并返回 JSON 的工具。 |
|
查询 SearchApi.io 搜索 API 的工具。 |
|
SearxSearch 工具的输入。 |
|
查询 Searx 实例并返回 json 的工具。 |
|
查询 Searx 实例的工具。 |
|
搜索 semanticscholar API 的工具。 |
|
SemanticScholar 工具的输入。 |
|
Bash Shell 工具的命令。 |
|
运行 shell 命令的工具。 |
|
Slack 工具的基础类。 |
|
获取 Slack 频道信息的工具。 |
|
获取 Slack 消息的工具。 |
|
SlackGetMessages 的输入模式。 |
|
ScheduleMessageTool 的输入。 |
|
用于在 Slack 中安排消息的工具。 |
|
SendMessageTool 的输入。 |
|
用于在 Slack 中发送消息的工具。 |
|
CopyFileTool 的输入。 |
|
添加睡眠功能的工具。 |
|
与 Spark SQL 交互的基础工具。 |
|
用于获取关于 Spark SQL 元数据的工具。 |
|
用于获取表名称的工具。 |
|
使用 LLM 检查查询是否正确。 |
|
用于查询 Spark SQL 的工具。 |
|
与 SQL 数据库交互的基础工具。 |
|
用于获取关于 SQL 数据库元数据的工具。 |
|
用于获取表名称的工具。 |
|
使用 LLM 检查查询是否正确。 |
|
用于查询 SQL 数据库的工具。 |
|
使用 StackExchange 的工具 |
|
搜索 Steam Web API 的工具。 |
|
用于生成的受支持图像模型。 |
|
|
用于从文本提示生成图像的工具。 |
查询 Tavily Search API 并返回答案的工具。 |
|
Tavily 工具的输入。 |
|
查询 Tavily Search API 并返回 json 的工具。 |
|
使用 VectorStore 的工具的基础类。 |
|
VectorDBQA 链的工具。 |
|
VectorDBQAWithSources 链的工具。 |
|
搜索 Wikidata API 的工具。 |
|
WikipediaQuery 工具的输入。 |
|
搜索 Wikipedia API 的工具。 |
|
使用 Wolfram Alpha SDK 进行查询的工具。 |
|
YahooFinanceNews 工具的输入。 |
|
在 Yahoo Finance 上搜索财经新闻的工具。 |
|
you.com 工具的输入模式。 |
|
搜索 you.com API 的工具。 |
|
查询 YouTube 的工具。 |
|
返回与当前用户(与设置的 api_key 关联)关联的所有公开(已启用)操作的列表。 |
|
执行由 action_id 标识的操作,必须公开 |
|
|
一个枚举。 |
一个枚举。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
初始化工具。 |
功能¶
|
使用 AIN 区块链进行身份验证 |
使用 Amadeus API 进行身份验证 |
|
检测文件是本地文件还是远程文件。 |
|
从 URL 下载音频到本地。 |
|
|
检测文件是本地文件还是远程文件。 |
|
从 URL 下载音频到本地。 |
将文件转换为 base64 格式。 |
|
|
获取文件的前 n 行。 |
|
从字符串中去除 markdown 代码。 |
已弃用。 |
|
如果最后一行缺少打印语句,则添加打印语句。 |
|
对 seq 中的每个项目调用 f,并在其间调用 inter()。 |
|
解析文件并将其漂亮地打印到输出。 |
|
|
解析相对路径,如果不在根目录中,则引发错误。 |
检查路径是否相对于根目录。 |
|
构建 Gmail 服务。 |
|
清理电子邮件正文。 |
|
获取凭据。 |
|
导入 google 库。 |
|
导入 googleapiclient.discovery.build 函数。 |
|
导入 InstalledAppFlow 类。 |
|
用于向用户请求输入的工具。 |
|
使用 Microsoft Graph API 进行身份验证 |
|
清理消息或事件的正文。 |
|
延迟导入 playwright 浏览器。 |
|
异步获取浏览器的当前页面。 |
|
|
创建一个异步 playwright 浏览器。 |
|
创建一个 playwright 浏览器。 |
获取浏览器的当前页面。 |
|
运行异步协程。 |
|
将 yaml 或 json 序列化的规范转换为 dict。 |
|
使用 Slack API 进行身份验证。 |
|
|
将块上传到签名 URL 并返回公共 URL。 |
已弃用的类¶
0.0.33 版本后已弃用: 请使用 |
|
0.0.33 版本后已弃用: 请使用 |
|
0.0.33 版本后已弃用: 请使用 |
|
0.0.33 版本后已弃用: 请使用 |
|
0.0.15 版本后已弃用: 请使用 |
langchain_community.utilities
¶
实用程序是与第三方系统和软件包的集成。
其他 LangChain 类使用 实用程序 与第三方系统和软件包进行交互。
类¶
AlphaVantage API 的货币汇率包装器。 |
|
Apify 的包装器。 |
|
Arcee 文档。 |
|
Arcee 文档的适配器 |
|
Arcee 文档的来源。 |
|
|
Arcee API 可用的路由作为枚举器。 |
|
Arcee API 的包装器。 |
DALM 检索和生成可用的过滤器。 |
|
DALM 检索可用的过滤器类型作为枚举器。 |
|
ArxivAPI 的包装器。 |
|
AskNews API 的包装器。 |
|
|
AstraDBEnvironment 的设置模式作为枚举器。 |
AWS Lambda SDK 的包装器。 |
|
bibtexparser 的包装器。 |
|
Bing Web Search API 的包装器。 |
|
Brave 搜索引擎的包装器。 |
|
一个枚举。 |
|
Apache Cassandra® 数据库包装器。 |
|
数据库架构中发生错误时引发的异常。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
|
列表的组件类。 |
Clickup API 的包装器。 |
|
所有组件的基础类。 |
|
|
成员的组件类。 |
|
空间的组件类。 |
|
任务的类。 |
|
团队的组件类。 |
OpenAI 的 DALL-E 图像生成器的包装器。 |
|
DataForSeo API 的包装器。 |
|
Dataherald 的包装器。 |
|
|
Dria API 的包装器。 |
DuckDuckGo Search API 的包装器。 |
|
GitHub API 的包装器。 |
|
GitLab API 的包装器。 |
|
Golden 的包装器。 |
|
SerpApi 的 Google Finance API 包装器 |
|
SerpApi 的 Google Scholar API 包装器 |
|
SerpApi 的 Google Lens API 包装器 |
|
Google Scholar API 包装器 |
|
Serper.dev Google Search API 的包装器。 |
|
SerpApi 的 Google Scholar API 包装器 |
|
GraphQL API 的包装器。 |
|
Infobip API 的消息传递包装器。 |
|
Jira API 的包装器。 |
|
用于查询阿里云 MaxCompute 表的接口。 |
|
Merriam-Webster 的包装器。 |
|
Metaphor Search API 的包装器。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
NASA API 的包装器。 |
|
别名 |
|
|
包含流式音频的消息。 |
别名 |
|
别名 |
|
别名 |
|
使用 NVIDIA Riva 执行自动语音识别 (ASR) 的可运行对象。 |
|
Riva 音频编码的可能选择的枚举。 |
|
Riva 服务连接的身份验证配置。 |
|
常见 Riva 设置的集合。 |
|
使用 NVIDIA Riva 执行文本到语音 (TTS) 的可运行对象。 |
|
一个空的 Sentinel 类型。 |
|
|
HTTP 动词的枚举器。 |
OpenAPI 模型,用于删除规范中格式错误的部件。 |
|
使用 PyOWM 的 OpenWeatherMap API 包装器。 |
|
|
获取摘要 :param conn: Oracle 连接, :param params: 摘要参数, :param proxy: 代理 |
OutlineAPI 的包装器。 |
|
管理 NutritionAI API 的令牌。 |
|
防止存储在磁盘上的 Mixin。 |
|
Passio Nutrition AI API 的包装器。 |
|
Pebblo AI 应用程序。 |
|
Pebblo 文档。 |
|
Pebblo Framework 实例。 |
|
Pebblo 索引文档。 |
|
Pebblo 运行时。 |
|
Polygon API 的包装器。 |
|
Portkey 配置。 |
|
从数据集 ID 和凭据或令牌创建 PowerBI 引擎。 |
|
PubMed API 的包装器。 |
|
Reddit API 的包装器 |
|
|
转义输入字符串中的标点符号。 |
Rememberizer API 的包装器。 |
|
requests 库的轻量级包装器。 |
|
requests 库的轻量级包装器,具有异步支持。 |
|
requests 的包装器,用于处理身份验证和异步。 |
|
requests 库的轻量级包装器,具有异步支持。 |
|
SceneXplain API 的包装器。 |
|
SearchApi API 的包装器。 |
|
类似字典的搜索 API 结果包装器。 |
|
Searx API 的包装器。 |
|
semanticscholar.org API 的包装器。 |
|
用于隐藏打印的上下文管理器。 |
|
SerpAPI 的包装器。 |
|
|
SparkSQL 是一个用于与 Spark SQL 交互的实用程序类。 |
|
围绕数据库的 SQLAlchemy 包装器。 |
Stack Exchange API 的包装器。 |
|
Steam API 的包装器。 |
|
Tavily Search API 的包装器。 |
|
访问 TensorFlow Datasets。 |
|
使用 Twilio 的消息客户端。 |
|
Wikidata API 的包装器。 |
|
WikipediaAPI 的包装器。 |
|
Wolfram Alpha 的包装器。 |
|
来自 you.com API 的输出。 |
|
解析一个代码片段的输出。 |
|
来自 you.com 的单个命中,可能包含多个代码片段 |
|
来自 you.com 的单个命中的元数据 |
|
you.com 搜索和新闻 API 的包装器。 |
|
Zapier NLA 的包装器。 |
功能¶
获取文本字符串中的 token 数量。 |
|
获取文本字符串的 token id。 |
|
|
异步执行 CQL 查询。 |
将 Cassandra 响应 future 包装在 asyncio future 中。 |
|
|
从字典中提取元素。 |
|
从 URL 获取数据。 |
|
从字典中获取第一个 id。 |
|
获取文件夹 id。 |
|
获取列表 id。 |
|
获取空间 id。 |
|
获取团队 id。 |
|
解析 JSON 字符串并返回已解析的对象。 |
通过创建组件然后将其转换回字典来解析字典。 |
|
从经过清理的文本中恢复原始敏感数据。 |
|
通过用占位符替换敏感数据来清理输入字符串或字符串字典。 |
|
检查 HTTP 响应是否可重试。 |
|
根据 page_content 大小生成文档批次。 |
|
返回本地文件/目录的绝对本地路径,对于网络相关路径,原样返回。 |
|
获取本地运行时 ip 地址。 |
|
根据 Document 中存在的键返回加载器源的绝对源路径。 |
|
|
返回加载器类型,包括文件、目录或内存中。 |
获取当前的框架和运行时详情。 |
|
在包含空格的表名周围添加单引号。 |
|
|
将 JSON 对象转换为 Markdown 表格。 |
检查是否安装了正确的 Redis 模块。 |
|
|
从给定的连接 URL 获取 Redis 客户端。 |
|
根据最大字符串长度,将字符串截断为一定数量的单词。 |
为 Vertex / Palm LLM 创建重试装饰器。 |
|
|
返回自定义用户代理标头。 |
|
初始化 Vertex AI。 |
从 Google Cloud Storage 加载图像。 |
|
引发与 Vertex SDK 不可用相关的 ImportError。 |
已弃用的类¶
0.0.33 版本后已弃用: 请使用 |
|
0.0.33 版本后已弃用: 请使用 |
langchain_community.utils
¶
LangChain 的 实用工具函数。
类¶
Ernie API 可调用函数的表示。 |
|
Ernie API 可调用函数的表示。 |
函数¶
|
将 Pydantic 模型转换为 Ernie API 的函数描述。 |
将 Pydantic 模型转换为 Ernie API 的函数描述。 |
|
|
返回自定义用户代理标头。 |
两个等宽矩阵之间按行计算余弦相似度。 |
|
|
按行计算余弦相似度,可选择 top-k 和分数阈值过滤。 |
返回 OpenAI API 是否为 v1 或更高版本。 |
|
从环境变量获取用户代理。 |
langchain_community.vectorstores
¶
向量存储 存储嵌入数据并执行向量搜索。
存储和搜索非结构化数据最常见的方法之一是嵌入数据并存储生成的嵌入向量,然后查询存储并检索与嵌入查询“最相似”的数据。
Class hierarchy
VectorStore --> <name> # Examples: Annoy, FAISS, Milvus
BaseRetriever --> VectorStoreRetriever --> <name>Retriever # Example: VespaRetriever
主要助手
Embeddings, Document
类¶
|
Aerospike 向量存储。 |
|
阿里云 OpenSearch 向量存储。 |
|
阿里云 Opensearch` 客户端配置。 |
|
AnalyticDB (分布式 PostgreSQL) 向量存储。 |
|
Annoy 向量存储。 |
|
Apache Doris 向量存储。 |
Apache Doris 客户端配置。 |
|
|
创建由 ApertureDB 支持的向量存储 |
|
Atlas 向量存储。 |
|
AwaDB 向量存储。 |
Azure Cosmos DB for MongoDB vCore 向量存储。 |
|
Cosmos DB 相似度类型枚举器。 |
|
|
Cosmos DB 向量搜索类型枚举器。 |
|
Azure Cosmos DB for NoSQL 向量存储。 |
|
Azure 认知搜索 向量存储。 |
使用 Azure 认知搜索 的检索器。 |
|
|
|
百度 Elasticsearch 向量存储。 |
|
Baidu VectorDB 作为向量存储。 |
|
Baidu VectorDB 连接参数。 |
|
|
Baidu VectorDB 表参数。 |
|
用于向量存储工作负载的 Apache Cassandra(R)。 |
|
Clarifai AI 向量存储。 |
|
ClickHouse VectorSearch 向量存储。 |
ClickHouse 客户端配置。 |
|
DashVector 向量存储。 |
|
|
Databricks Vector Search 向量存储。 |
Activeloop Deep Lake 向量存储。 |
|
|
Dingo 向量存储。 |
DocArray 向量存储的基类。 |
|
使用 DocArray 包的 HnswLib 存储。 |
|
用于精确搜索的内存中 DocArray 存储。 |
|
DocumentDB 相似度类型枚举器。 |
|
Amazon DocumentDB (兼容 MongoDB) 向量存储。 |
|
|
DuckDB 向量存储。 |
ecloud Elasticsearch 向量存储。 |
|
Elasticsearch 检索策略的基类。 |
|
|
Epsilla 向量数据库的包装器。 |
|
Meta Faiss 向量存储。 |
|
SAP HANA Cloud Vector Engine |
|
Hippo 向量存储。 |
|
Hologres API 向量存储。 |
|
Infinispan REST 接口的辅助类。 |
Infinispan VectorStore 接口。 |
|
|
Jaguar API 向量存储。 |
|
KDB.AI 向量存储。 |
已知嵌入的一些默认维度。 |
|
距离策略的枚举器。 |
|
|
Kinetica 向量存储。 |
Kinetica 客户端配置。 |
|
|
LanceDB 向量存储。 |
Lantern 嵌入存储的基类。 |
|
距离策略的枚举器。 |
|
|
使用 lantern 扩展的 Postgres 作为向量存储。 |
来自查询的结果。 |
|
使用 LLMRails 的 Vector Store 实现。 |
|
LLMRails 的检索器。 |
|
ManticoreSearch Engine 向量存储。 |
|
通过解析和验证来自关键字参数的输入数据来创建新模型。 |
|
|
Marqo 向量存储。 |
|
Meilisearch 向量存储。 |
Momento Vector Index (MVI) 向量存储。 |
|
|
MyScale 向量存储。 |
MyScale 客户端配置。 |
|
没有元数据列的 MyScale 向量存储 |
|
索引类型的枚举器。 |
|
|
Neo4j 向量索引。 |
距离策略的枚举器。 |
|
|
NucliaDB 向量存储。 |
|
Amazon OpenSearch Vector Engine 向量存储。 |
|
OracleVS 向量存储。 |
连接到 Pathway Vector Store 的 VectorStore。 |
|
|
所有 SQL 存储的基模型。 |
集合存储。 |
|
|
嵌入存储。 |
|
使用 pg_embedding 扩展的 Postgres 作为向量存储。 |
来自查询的结果。 |
|
|
由 pgvecto_rs 支持的 VectorStore。 |
|
SQL 存储的基模型。 |
距离策略的枚举器。 |
|
Qdrant 相关异常。 |
|
|
Redis 向量数据库。 |
Redis VectorStore 的检索器。 |
|
RedisFilterFields 的集合。 |
|
RedisFilterFields 的逻辑表达式。 |
|
RedisFilterFields 的基类。 |
|
RedisFilterOperator 枚举器用于创建 RedisFilterExpressions。 |
|
RedisFilterField,表示 Redis 索引中的数字字段。 |
|
RedisFilterField,表示 Redis 索引中的标签。 |
|
RedisFilterField,表示 Redis 索引中的文本字段。 |
|
Redis 中平面向量字段的模式。 |
|
Redis 中 HNSW 向量字段的模式。 |
|
Redis 中数字字段的模式。 |
|
Redis 向量字段的距离度量。 |
|
Redis 字段的基类。 |
|
Redis 索引的模式。 |
|
Redis 向量字段的基类。 |
|
Redis 中标签字段的模式。 |
|
Redis 中文本字段的模式。 |
|
|
Relyt (分布式 PostgreSQL) 向量存储。 |
|
Rockset 向量存储。 |
|
ScaNN 向量存储。 |
|
SemaDB 向量存储。 |
SingleStore DB 向量存储。 |
|
|
用于序列化数据的基类。 |
|
使用 bson python 包以二进制 JSON 格式序列化数据。 |
|
使用 python 标准库中的 json 包以 JSON 格式序列化数据。 |
使用 pyarrow 包以 Apache Parquet 格式序列化数据。 |
|
基于 scikit-learn 库 NearestNeighbors 的简单内存向量存储。 |
|
SKLearnVectorStore 引发的异常。 |
|
|
使用 VSS 扩展的 SQLite 作为向量数据库。 |
|
StarRocks 向量存储。 |
StarRocks 客户端配置。 |
|
Supabase Postgres 向量存储。 |
|
SurrealDB 作为向量存储。 |
|
|
Tair 向量存储。 |
腾讯向量数据库连接参数。 |
|
腾讯向量数据库索引参数。 |
|
腾讯向量数据库的元数据字段。 |
|
Tencent VectorDB 作为向量存储。 |
|
使用 ThirdAI 的 NeuralDB Enterprise Python 客户端用于 NeuralDB 的向量存储。 |
|
使用 ThirdAI 的 NeuralDB 的向量存储。 |
|
TiDB 向量存储。 |
|
|
Tigris 向量存储。 |
|
TileDB 向量存储。 |
Timescale Postgres 向量存储。 |
|
|
Typesense 向量存储。 |
Upstash Vector 向量存储。 |
|
|
USearch 向量存储。 |
用于计算向量之间距离的距离策略枚举器。 |
|
|
Vald 向量数据库。 |
|
Intel Lab 的 VDMS 用于向量存储工作负载。 |
|
初始化 vearch 向量存储,集群标记为 1,单机标记为 0。 |
|
最大边际相关性 (MMR) 搜索的配置。 |
重排序器的配置。 |
|
摘要生成的配置。 |
|
|
Vectara API 向量存储。 |
|
Vectara 查询的配置。 |
|
Vectara RAG 可运行对象。 |
Vectara Retriever 类。 |
|
|
Vespa 向量存储。 |
|
vikingdb 作为向量存储。 |
|
vikingdb 连接配置。 |
|
VLite 是一个用于语义搜索的简单快速向量数据库。 |
|
Weaviate 向量存储。 |
|
Xata 向量存储。 |
|
Yellowbrick 作为向量数据库。 |
|
Zep Collection 的配置。 |
|
Zep 向量存储。 |
Zep 向量存储。 |
|
|
Zilliz 向量存储。 |
函数¶
|
从字段创建元数据。 |
如果可用,则导入 annoy,否则引发错误。 |
|
|
检查字符串是否包含多个子字符串。 |
如果可用,则导入 faiss,否则引发错误。 |
|
导入 lancedb 包。 |
|
将 dict 过滤器转换为 LanceDB 过滤器字符串。 |
|
获取嵌入存储类。 |
|
|
检查字符串是否包含多个子字符串。 |
检查值是否不为 None 或空字符串。 |
|
将输入数据转换为所需的格式。 |
|
使用运算符组合多个查询。 |
|
构建元数据过滤器。 |
|
将字典转换为类似 YAML 的字符串,无需使用外部库。 |
|
移除 Lucene 特殊字符。 |
|
如果存在,则对第一个元素进行排序以匹配 index_name。 |
|
|
在向量存储上创建索引。 |
如果索引存在,则删除索引。 |
|
删除表并从数据库中清除。 |
|
如果未实现异步方法,则调用类的同步方法的装饰器。 |
|
检查 Redis 索引是否存在。 |
|
用于检查是否误用等号运算符的装饰器。 |
|
从字典或 yaml 文件中读取索引模式。 |
|
如果可用,则导入 scann,否则引发错误。 |
|
将向量归一化为单位长度。 |
|
如果 DEBUG 为 True,则打印调试消息。 |
|
从查询中获取命名结果。 |
|
|
检查字符串是否包含多个子字符串。 |
将 LangChain 过滤器转换为腾讯向量数据库过滤器。 |
|
如果可用,则导入 tiledb-vector-search,否则引发错误。 |
|
获取文档数组的 URI。 |
|
|
从组中获取文档数组的 URI。 |
获取向量索引的 URI。 |
|
获取向量索引的 URI。 |
|
如果可用,则导入 usearch,否则引发错误。 |
|
过滤掉向量存储不支持的元数据类型。 |
|
计算最大边际相关性。 |
|
|
用于 VDMS 服务器的 VDMS 客户端。 |
|
将嵌入转换为字节。 |
已弃用的类¶
|
0.0.21 版本后已弃用: 请使用 |
|
0.0.33 版本后已弃用: 请使用 |
|
0.2.9 版本后已弃用: 请使用 |
0.2.4 版本后已弃用: 请使用 |
|
0.0.1 版本后已弃用: 请使用 |
|
0.0.27 版本后已弃用: 请使用 |
|
0.0.27 版本后已弃用: 请使用 |
|
0.0.27 版本后已弃用: 请使用 |
|
0.0.27 版本后已弃用: 请使用 |
|
0.0.27 版本后已弃用: 请使用 |
|
0.0.12 版本后已弃用: 请使用 |
|
|
0.2.0 版本后已弃用: 请使用 |
0.0.25 版本后已弃用: 请使用 |
|
|
0.0.31 版本后已弃用: 此类即将被弃用,并可能在未来版本中移除。您可以切换到使用 langchain_postgres 中的 PGVector 实现。在迁移之前,请阅读此类的文档字符串中的指南,因为实现之间存在一些差异。 有关新实现的详细信息,请参阅 <https://github.com/langchain-ai/langchain-postgres>。请使用 |
|
0.0.18 版本后已弃用: 请使用 |
|
0.0.37 版本后已弃用: 请使用 |