langchain_community.cache
.SQLAlchemyMd5Cache¶
- class langchain_community.cache.SQLAlchemyMd5Cache(engine: ~sqlalchemy.engine.base.Engine, cache_schema: ~typing.Type[~langchain_community.cache.FullMd5LLMCache] = <class 'langchain_community.cache.FullMd5LLMCache'>)[源代码]†
使用 SQLAlchemy 作为后端的缓存。
通过创建所有表进行初始化。
方法
__init__
(engine[, cache_schema])通过创建所有表进行初始化。
aclear
(**kwargs)异步清空缓存,可以接受额外的关键字参数。
alookup
(prompt, llm_string)根据提示和 llm_string 进行异步查找。
aupdate
(prompt, llm_string, return_val)根据提示和 llm_string 进行异步更新缓存。
clear
(**kwargs)清空缓存。
get_md5
(input_string)lookup
(prompt, llm_string)根据提示和 llm_string 进行查找。
update
(prompt, llm_string, return_val)根据提示和 llm_string 进行更新。
- 参数
engine (Engine) –
cache_schema (Type[FullMd5LLMCache]) –
- __init__(engine: ~sqlalchemy.engine.base.Engine, cache_schema: ~typing.Type[~langchain_community.cache.FullMd5LLMCache] = <class 'langchain_community.cache.FullMd5LLMCache'>)[源代码]†
通过创建所有表进行初始化。
- 参数
engine (Engine) –
cache_schema (Type[FullMd5LLMCache]) –
- async aclear(**kwargs: Any) None †
异步清空缓存,可以接受额外的关键字参数。
- 参数
kwargs (Any) –
- 返回类型
None
- async alookup(prompt: str, llm_string: str) Optional[Sequence[Generation]] ¶
根据提示和 llm_string 进行异步查找。
缓存实现应从提示和 llm_string 的二元组生成一个键(例如,通过连接它们并使用分隔符)。
- 参数
prompt (str) – 提示的字符串表示。在聊天模型的情况下,提示是以非平凡的方式将提示序列化到语言模型中的。
llm_string (str) – LLM 配置的字符串表示。这用于捕获 LLM 的调用参数(例如,模型名称、温度、停止令牌、最大令牌等)。这些调用参数被序列化为一个字符串表示。
- 返回值
在缓存未命中时返回 None。在缓存命中时,返回缓存值。缓存值是生成列表(或其子类)。
- 返回类型
Optional[Sequence[Generation]]
- async aupdate(prompt: str, llm_string: str, return_val: Sequence[Generation]) None ¶
根据提示和 llm_string 进行异步更新缓存。
提示和 llm_string 用于生成缓存的关键。关键应与查找方法的关键匹配。
- 参数
prompt (str) – 提示的字符串表示。在聊天模型的情况下,提示是以非平凡的方式将提示序列化到语言模型中的。
llm_string (str) – LLM 配置的字符串表示。这用于捕获 LLM 的调用参数(例如,模型名称、温度、停止令牌、最大令牌等)。这些调用参数被序列化为一个字符串表示。
return_val (Sequence[Generation]) – 要缓存的值。该值是生成列表(或其子类)。
- 返回类型
None
- lookup(prompt: str, llm_string: str) Optional[Sequence[Generation]][source]¶
根据提示和 llm_string 进行查找。
- 参数
prompt (str) –
llm_string (str) –
- 返回类型
Optional[Sequence[Generation]]
- update(prompt: str, llm_string: str, return_val: Sequence[Generation]]) None [source]¶
根据提示和 llm_string 进行更新。
- 参数
prompt (str) –
llm_string (str) –
return_val (Sequence[Generation]) –
- 返回类型
None