langchain_core.caches
.InMemoryCache¶
- class langchain_core.caches.InMemoryCache(*, maxsize: Optional[int] = None)[source]¶
内存存储的缓存。
使用空缓存初始化。
- 参数
maxsize (Optional[int]) – 缓存中存储项目的最大数量。如果为 None,缓存没有最大限制。当缓存超过最大限制时,最早的条目将被移除。默认值为 None。
- 抛出
ValueError – 如果 maxsize 小于或等于 0。
方法
__init__
(*[, maxsize])使用空缓存初始化。
aclear
(**kwargs)异步清除缓存。
alookup
(prompt, llm_string)根据提示和 llm_string 异步查找。
aupdate
(prompt, llm_string, return_val)根据提示和 llm_string 异步更新缓存。
clear
(**kwargs)清除缓存。
lookup
(prompt, llm_string)根据提示和 llm_string 进行查找。
update
(prompt, llm_string, return_val)根据提示和 llm_string 更新缓存。
- __init__(*, maxsize: Optional[int] = None) None [source]¶
使用空缓存初始化。
- 参数
maxsize (Optional[int]) – 缓存中存储项目的最大数量。如果为 None,缓存没有最大限制。当缓存超过最大限制时,最早的条目将被移除。默认值为 None。
- 抛出
ValueError – 如果 maxsize 小于或等于 0。
- 返回类型
None
- async alookup(prompt: str, llm_string: str) Optional[Sequence[Generation]] [source]¶
根据提示和 llm_string 异步查找。
- 参数
prompt (str) – 提示的字符串表示。在 Chat 模型的情况下,提示是非平凡的提示序列化进语言模型。
llm_string (str) – LLM 配置的字符串表示。
- 返回值
在缓存未命中时返回 None。在缓存命中时返回缓存值。
- 返回类型
Optional[Sequence[Generation]]
- async aupdate(prompt: str, llm_string: str, return_val: Sequence[Generation]) None [source]¶
根据提示和 llm_string 异步更新缓存。
- 参数
prompt (str) – 提示的字符串表示。在 Chat 模型的情况下,提示是非平凡的提示序列化进语言模型。
llm_string (str) – LLM 配置的字符串表示。
return_val (Sequence[Generation]) – 要缓存的价值。值是一个包含 Generation 的列表(或其子类)。
- 返回类型
None
- lookup(prompt: str, llm_string: str) Optional[Sequence[Generation]] [source]¶
根据提示和 llm_string 进行查找。
- 参数
prompt (str) – 提示的字符串表示。在 Chat 模型的情况下,提示是非平凡的提示序列化进语言模型。
llm_string (str) – LLM 配置的字符串表示。
- 返回值
在缓存未命中时返回 None。在缓存命中时返回缓存值。
- 返回类型
Optional[Sequence[Generation]]
- update(prompt: str, llm_string: str, return_val: Sequence[Generation]) None [source]¶
根据提示和 llm_string 更新缓存。
- 参数
prompt (str) – 提示的字符串表示。在 Chat 模型的情况下,提示是非平凡的提示序列化进语言模型。
llm_string (str) – LLM 配置的字符串表示。
return_val (Sequence[Generation]) – 要缓存的价值。值是一个包含 Generation 的列表(或其子类)。
- 返回类型
None