langchain_community.cache.SQLAlchemyMd5Cache

class langchain_community.cache.SQLAlchemyMd5Cache(engine: ~sqlalchemy.engine.base.Engine, cache_schema: ~typing.Type[~langchain_community.cache.FullMd5LLMCache] = <class 'langchain_community.cache.FullMd5LLMCache'>)[源代码]

使用 SQLAlchemy 作为后端的缓存。

通过创建所有表进行初始化。

方法

__init__(engine[, cache_schema])

通过创建所有表进行初始化。

aclear(**kwargs)

异步清空缓存,可以接受额外的关键字参数。

alookup(prompt, llm_string)

根据提示和 llm_string 进行异步查找。

aupdate(prompt, llm_string, return_val)

根据提示和 llm_string 进行异步更新缓存。

clear(**kwargs)

清空缓存。

get_md5(input_string)

lookup(prompt, llm_string)

根据提示和 llm_string 进行查找。

update(prompt, llm_string, return_val)

根据提示和 llm_string 进行更新。

参数
__init__(engine: ~sqlalchemy.engine.base.Engine, cache_schema: ~typing.Type[~langchain_community.cache.FullMd5LLMCache] = <class 'langchain_community.cache.FullMd5LLMCache'>)[源代码]

通过创建所有表进行初始化。

参数
async aclear(**kwargs: Any) None

异步清空缓存,可以接受额外的关键字参数。

参数

kwargs (Any) –

返回类型

None

async alookup(prompt: str, llm_string: str) Optional[Sequence[Generation]]

根据提示和 llm_string 进行异步查找。

缓存实现应从提示和 llm_string 的二元组生成一个键(例如,通过连接它们并使用分隔符)。

参数
  • prompt (str) – 提示的字符串表示。在聊天模型的情况下,提示是以非平凡的方式将提示序列化到语言模型中的。

  • llm_string (str) – LLM 配置的字符串表示。这用于捕获 LLM 的调用参数(例如,模型名称、温度、停止令牌、最大令牌等)。这些调用参数被序列化为一个字符串表示。

返回值

在缓存未命中时返回 None。在缓存命中时,返回缓存值。缓存值是生成列表(或其子类)。

返回类型

Optional[Sequence[Generation]]

async aupdate(prompt: str, llm_string: str, return_val: Sequence[Generation]) None

根据提示和 llm_string 进行异步更新缓存。

提示和 llm_string 用于生成缓存的关键。关键应与查找方法的关键匹配。

参数
  • prompt (str) – 提示的字符串表示。在聊天模型的情况下,提示是以非平凡的方式将提示序列化到语言模型中的。

  • llm_string (str) – LLM 配置的字符串表示。这用于捕获 LLM 的调用参数(例如,模型名称、温度、停止令牌、最大令牌等)。这些调用参数被序列化为一个字符串表示。

  • return_val (Sequence[Generation]) – 要缓存的值。该值是生成列表(或其子类)。

返回类型

None

clear(**kwargs: Any) None[source]

清空缓存。

参数

kwargs (Any) –

返回类型

None

static get_md5(input_string: str) str[source]
参数

input_string (str) –

返回类型

str

lookup(prompt: str, llm_string: str) Optional[Sequence[Generation]][source]

根据提示和 llm_string 进行查找。

参数
  • prompt (str) –

  • llm_string (str) –

返回类型

Optional[Sequence[Generation]]

update(prompt: str, llm_string: str, return_val: Sequence[Generation]]) None[source]

根据提示和 llm_string 进行更新。

参数
  • prompt (str) –

  • llm_string (str) –

  • return_val (Sequence[Generation]) –

返回类型

None