langchain_couchbase.cache.CouchbaseCache

class langchain_couchbase.cache.CouchbaseCache(cluster: Cluster, bucket_name: str, scope_name: str, collection_name: str, **kwargs: Dict[str, Any])[source]

Couchbase LLM 缓存:使用 Couchbase 作为后端的数据缓存

初始化 Couchbase LLM 缓存 :param cluster: 拥有活动连接的 Couchbase 集群对象。 :type cluster: Cluster :param bucket_name: 存储文档的 bucket 名称。 :type bucket_name: str :param scope_name: bucket 中存储文档的 scope 名称。 :type scope_name: str :param collection_name: scope 中存储文档的 collection 名称。

参数
  • cluster (Cluster) –

  • bucket_name (str) –

  • scope_name (str) –

  • collection_name (str) –

  • kwargs (Dict[str, Any]) –

属性

LLM

PROMPT

RETURN_VAL

方法

__init__(cluster, bucket_name, scope_name, ...)

初始化 Couchbase LLM 缓存 :param cluster: 拥有活动连接的 Couchbase 集群对象。 :type cluster: Cluster :param bucket_name: 存储文档的 bucket 名称。 :type bucket_name: str :param scope_name: bucket 中存储文档的 scope 名称。 :type scope_name: str :param collection_name: scope 中存储文档的 collection 名称。

aclear(**kwargs)

异步清除缓存,可接受额外的关键字参数。

alookup(prompt, llm_string)

基于提示和 llm_string 的异步查找。

aupdate(prompt, llm_string, return_val)

基于提示和 llm_string 的异步更新缓存。

clear(**kwargs)

清除缓存。

lookup(prompt, llm_string)

基于提示和 llm_string 在缓存中进行查找。

update(prompt, llm_string, return_val)

根据提示和llm_string更新缓存。

__init__(cluster: Cluster, bucket_name: str, scope_name: str, collection_name: str, **kwargs: Dict[str, Any]) None[source]

初始化 Couchbase LLM 缓存 :param cluster: 拥有活动连接的 Couchbase 集群对象。 :type cluster: Cluster :param bucket_name: 存储文档的 bucket 名称。 :type bucket_name: str :param scope_name: bucket 中存储文档的 scope 名称。 :type scope_name: str :param collection_name: scope 中存储文档的 collection 名称。

参数
  • cluster (Cluster) –

  • bucket_name (str) –

  • scope_name (str) –

  • collection_name (str) –

  • kwargs (Dict[str, Any]) –

返回类型

None

async aclear(**kwargs: Any) None

异步清除缓存,可接受额外的关键字参数。

参数

kwargs (Any) –

返回类型

None

async alookup(prompt: str, llm_string: str) Optional[Sequence[Generation]]

基于提示和 llm_string 的异步查找。

缓存实现应从提示和llm_string的两元组生成一个键(例如,通过使用分隔符连接它们)。

参数
  • prompt (str) – 提示的字符串表示。在聊天模型的例子中,提示是对提示的非平凡序列化到语言模型中。

  • llm_string (str) – LLM配置的字符串表示。这用于捕获LLM的调用参数(例如,模型名称、温度、停止标记、最大标记等)。这些调用参数被序列化为字符串表示。

返回

在缓存未命中时,返回None。在缓存命中时,返回缓存值。缓存值是生成列表(或子类)。

返回类型

Optional[Sequence[Generation]]

async aupdate(prompt: str, llm_string: str, return_val: Sequence[Generation]) None

基于提示和 llm_string 的异步更新缓存。

提示和 llm_string 用于生成缓存的关键字。关键字应与查找方法的 keyword 相匹配。

参数
  • prompt (str) – 提示的字符串表示。在聊天模型的例子中,提示是对提示的非平凡序列化到语言模型中。

  • llm_string (str) – LLM配置的字符串表示。这用于捕获LLM的调用参数(例如,模型名称、温度、停止标记、最大标记等)。这些调用参数被序列化为字符串表示。

  • return_val (Sequence[Generation]) – 需要缓存的值。值为 Generation 类或其子类的列表。

返回类型

None

clear(**kwargs: Any) None[source]

清除缓存。这将删除集合中的所有文档。此操作需要集合的索引。

参数

kwargs (Any) –

返回类型

None

lookup(prompt: str, llm_string: str) Optional[Sequence[Generation]][source]

基于提示和 llm_string 在缓存中进行查找。

参数
  • prompt (str) –

  • llm_string (str) –

返回类型

Optional[Sequence[Generation]]

update(prompt: str, llm_string: str, return_val: Sequence[Generation]) None[source]

根据提示和llm_string更新缓存。

参数
  • prompt (str) –

  • llm_string (str) –

  • return_val (Sequence[Generation]) –

返回类型

None