langchain_community.cache.OpenSearchSemanticCache

class langchain_community.cache.OpenSearchSemanticCache(opensearch_url: str, embedding: Embeddings, score_threshold: float = 0.2)[source]

使用 OpenSearch 向量存储后端的缓存

参数
  • opensearch_url (str) – 连接到 OpenSearch 的 URL。

  • embedding (Embedding) – 用于语义编码和搜索的嵌入提供者。

  • score_threshold (float, 0.2) –

示例:.. code-block:: python

import langchain from langchain.cache import OpenSearchSemanticCache from langchain.embeddings import OpenAIEmbeddings langchain.llm_cache = OpenSearchSemanticCache(

opensearch_url="http//localhost:9200", embedding=OpenAIEmbeddings()

)

方法

__init__(opensearch_url, embedding[, ...])

参数 opensearch_url

连接到 OpenSearch 的 URL。

aclear(**kwargs)

异步清除缓存,可以接受额外的键参数。

alookup(prompt, llm_string)

基于提示和 llm_string 的异步查找。

aupdate(prompt, llm_string, return_val)

基于提示和 llm_string 的异步更新缓存。

clear(**kwargs)

清除给定 llm_string 的语义缓存。

lookup(prompt, llm_string)

基于提示和 llm_string 的查找。

update(prompt, llm_string, return_val)

基于提示和 llm_string 更新缓存。

__init__(opensearch_url: str, embedding: Embeddings, score_threshold: float = 0.2)[source]
参数
  • opensearch_url (str) – 连接到 OpenSearch 的 URL。

  • embedding (Embedding) – 用于语义编码和搜索的嵌入提供者。

  • score_threshold (float, 0.2) –

示例:.. code-block:: python

import langchain from langchain.cache import OpenSearchSemanticCache from langchain.embeddings import OpenAIEmbeddings langchain.llm_cache = OpenSearchSemanticCache(

opensearch_url="http//localhost:9200", embedding=OpenAIEmbeddings()

)

async aclear(**kwargs: Any) None

异步清除缓存,可以接受额外的键参数。

参数

kwargs (Any) –

返回类型

None

async alookup(prompt: str, llm_string: str) Optional[Sequence[Generation]]

基于提示和 llm_string 的异步查找。

缓存实现应该从提示和llm_string的二元组中生成一个键(例如,通过使用分隔符连接它们)。

参数
  • prompt (str) – 提示的字符串表示。在Chat模型的情况下,提示是将提示序列化为语言模型的不平凡序列化。

  • llm_string (str) – LLM配置的字符串表示。这用于捕获LLM的调用参数(例如,模型名称、温度、停用词、最大令牌数等)。这些调用参数被序列化为字符串表示。

返回

缓存未命中时返回None。缓存命中时返回缓存的值。缓存的值是生成对象(或其子类)的列表。

返回类型

Optional[Sequence[Generation]]

async aupdate(prompt: str, llm_string: str, return_val: Sequence[Generation]) None

基于提示和 llm_string 的异步更新缓存。

提示(prompt)和llm_string用于生成缓存的关键字。关键字应与查询方法的键匹配。

参数
  • prompt (str) – 提示的字符串表示。在Chat模型的情况下,提示是将提示序列化为语言模型的不平凡序列化。

  • llm_string (str) – LLM配置的字符串表示。这用于捕获LLM的调用参数(例如,模型名称、温度、停用词、最大令牌数等)。这些调用参数被序列化为字符串表示。

  • return_val (Sequence[Generation]) – 要缓存的值。值是Generations(或其子类)的列表。

返回类型

None

clear(**kwargs: Any) None[source]

清除给定 llm_string 的语义缓存。

参数

kwargs (Any) –

返回类型

None

lookup(prompt: str, llm_string: str) Optional[Sequence[Generation]][source]

基于提示和 llm_string 的查找。

参数
  • prompt (str) –

  • llm_string (str) –

返回类型

Optional[Sequence[Generation]]

update(prompt: str, llm_string: str, return_val: Sequence[Generation]) None[source]

基于提示和 llm_string 更新缓存。

参数
  • prompt (str) –

  • llm_string (str) –

  • return_val (Sequence[Generation]) –

返回类型

None

使用 OpenSearchSemanticCache 的示例