langchain_community.cache.AstraDBSemanticCache

属性 class langchain_community.cache.AstraDBSemanticCache(*collection_name: str = 'langchain_astradb_semantic_cache'token: Optional[str] = Noneapi_endpoint: Optional[str] = Noneastra_db_client: Optional[AstraDB] = Noneasync_astra_db_client: Optional[AsyncAstraDB] = Nonenamespace: Optional[str] = Nonesetup_mode: AstraSetupMode = SetupMode.SYNCpre_delete_collection: bool = Falseembedding: Embeddingsmetric: Optional[str] = Nonesimilarity_threshold: float = 0.85)[source]

弃用自版本 0.0.28: 请使用 langchain_astradb.AstraDBSemanticCache 代替。

一个使用 Astra DB 作为向量存储后端进行语义(即基于相似性的)查找的缓存。

它使用单个(向量)集合,可以存储来自多个LLMs的缓存值,因此LLM的“llm_string”存储在文档元数据中。

您可以选择首选的相似度(或使用API默认值)。默认分数阈值已调整到默认度量。如果切换到另一个距离度量,请仔细自行调整。

参数
  • collection_name (str) – 要创建/使用的Astra DB集合的名称。

  • token (可选[str]) – Astra DB使用的API令牌。

  • api_endpoint (可选[str]) – API端点的完整URL,例如 https://<DB-ID>-us-east1.apps.astra.datastax.com

  • astra_db_client (可选[AstraDB]) – 相对于token+api_endpoint,您可以传递已创建的 `'astrapy.db.AstraDB’` 实例。

  • async_astra_db_client (可选[AsyncAstraDB]) – 相对于token+api_endpoint,您可以传递已创建的 `'astrapy.db.AsyncAstraDB’` 实例。

  • namespace (可选[str]) – 创建集合的命名空间(也称为键空间)。默认为数据库的“默认命名空间”。

  • setup_mode (AstraSetupMode) – 创建Astra DB集合所用模式(SYNC,ASYNC或OFF)。

  • pre_delete_collection (bool) – 在创建之前是否要删除集合。如果为False且集合已存在,则将使用现有集合。

  • embedding (Embeddings) – 用于语义编码和搜索的嵌入提供者。

  • metric (可选[str]) – 用于评估文本嵌入相似度的函数。默认为‘cosine’(替代方案:‘euclidean’,‘dot_product’)。

  • similarity_threshold (float) – 接受(语义搜索)匹配的最小相似度。

方法

__init__(*[, collection_name, token, ...])

使用Astra DB作为语义(即

aclear(**kwargs)

异步清除缓存,可以接受额外的关键字参数。

adelete_by_document_id(document_id)

鉴于这是一个“相似度搜索”缓存,一个有意义的失效模式是首先查找以获取ID,然后使用该ID进行删除。

alookup(prompt, llm_string)

基于提示和llm_string进行异步查找。

alookup_with_id(prompt, llm_string)

基于提示和llm_string进行查找。

alookup_with_id_through_llm(prompt, llm[, stop])

aupdate(prompt, llm_string, return_val)

异步基于提示和llm_string更新缓存。

clear(**kwargs)

清除缓存,可以接受附加关键词参数。

delete_by_document_id(document_id)

鉴于这是一个“相似度搜索”缓存,一个有意义的失效模式是首先查找以获取ID,然后使用该ID进行删除。

lookup(prompt, llm_string)

基于提示和llm_string进行查找。

lookup_with_id(prompt, llm_string)

基于提示和llm_string进行查找。

lookup_with_id_through_llm(prompt, llm[, stop])

update(prompt, llm_string, return_val)

基于提示和llm_string更新缓存。

__init__(*, collection_name: str = 'langchain_astradb_semantic_cache', token: Optional[str] = None, api_endpoint: Optional[str] = None, astra_db_client: Optional[AstraDB] = None, async_astra_db_client: Optional[AsyncAstraDB] = None, namespace: Optional[str] = None, setup_mode: AstraSetupMode = SetupMode.SYNC, pre_delete_collection: bool = False, embedding: Embeddings, metric: Optional[str] = None, similarity_threshold: float = 0.85)[源代码]

一个使用 Astra DB 作为向量存储后端进行语义(即基于相似性的)查找的缓存。

它使用单个(向量)集合,可以存储来自多个LLMs的缓存值,因此LLM的“llm_string”存储在文档元数据中。

您可以选择首选的相似度(或使用API默认值)。默认分数阈值已调整到默认度量。如果切换到另一个距离度量,请仔细自行调整。

参数
  • collection_name (str) – 要创建/使用的Astra DB集合的名称。

  • token (可选[str]) – Astra DB使用的API令牌。

  • api_endpoint (可选[str]) – API端点的完整URL,例如 https://<DB-ID>-us-east1.apps.astra.datastax.com

  • astra_db_client (可选[AstraDB]) – 相对于token+api_endpoint,您可以传递已创建的 `'astrapy.db.AstraDB’` 实例。

  • async_astra_db_client (可选[AsyncAstraDB]) – 相对于token+api_endpoint,您可以传递已创建的 `'astrapy.db.AsyncAstraDB’` 实例。

  • namespace (可选[str]) – 创建集合的命名空间(也称为键空间)。默认为数据库的“默认命名空间”。

  • setup_mode (AstraSetupMode) – 创建Astra DB集合所用模式(SYNC,ASYNC或OFF)。

  • pre_delete_collection (bool) – 在创建之前是否要删除集合。如果为False且集合已存在,则将使用现有集合。

  • embedding (Embeddings) – 用于语义编码和搜索的嵌入提供者。

  • metric (可选[str]) – 用于评估文本嵌入相似度的函数。默认为‘cosine’(替代方案:‘euclidean’,‘dot_product’)。

  • similarity_threshold (float) – 接受(语义搜索)匹配的最小相似度。

async aclear(**kwargs: Any) None[source]

异步清除缓存,可以接受额外的关键字参数。

参数

kwargs (Any) –

返回类型

None

async adelete_by_document_id(document_id: str) None[source]

由于这是一个“相似度搜索”缓存,一个合理的失效模式是首先查找以获取ID,然后使用该ID删除。这是第二步。

参数

document_id (str) –

返回类型

None

async alookup(prompt: str, llm_string: str) Optional[Sequence[Generation]][source]

基于提示和llm_string进行异步查找。

预期的缓存实现应该从提示和llm_string的二元组生成一个密钥(例如,通过分隔符连接它们)。

参数
  • prompt (str) – 提示的字符串表示。在聊天模型的例子中,提示是对提示的非平凡序列化到语言模型。

  • llm_string (str) – LLM配置的字符串表示。这用于捕获LLM的调用参数(例如,模型名称、温度、停止令牌、最大令牌数等)。这些调用参数被序列化为字符串表示。

返回值

在缓存未命中时返回None。在缓存命中时返回缓存的值。缓存的值是Generations(或其子类)的列表。

返回类型

Optional[Sequence[Generation]]

async alookup_with_id(prompt: str, llm_string: str) Optional[Tuple[str, Sequence[Generation]]][源代码]

根据提示和llm_string进行查找。如果有命中,返回顶部命中的(document_id, cached_entry)

参数
  • prompt (str) –

  • llm_string (str) –

返回类型

Optional[Tuple[str, Sequence[Generation]]]

async alookup_with_id_through_llm(prompt: str, llm: LLM, stop: Optional[List[str]]= None) Optional[Tuple[str, Sequence[Generation]]][源代码]
参数
  • prompt (str) –

  • llm (LLM) –

  • stop (Optional[List[str]]) –

返回类型

Optional[Tuple[str, Sequence[Generation]]]

async aupdate(prompt: str, llm_string: str, return_val: Sequence[Generation]) None[source]

异步基于提示和llm_string更新缓存。

提示和llm_string用于生成缓存的关键字。关键字应与查找方法的相同。

参数
  • prompt (str) – 提示的字符串表示。在聊天模型的例子中,提示是对提示的非平凡序列化到语言模型。

  • llm_string (str) – LLM配置的字符串表示。这用于捕获LLM的调用参数(例如,模型名称、温度、停止令牌、最大令牌数等)。这些调用参数被序列化为字符串表示。

  • return_val (Sequence[Generation]) – 要缓存的值。该值是生成列表(或其子类)。

返回类型

None

clear(**kwargs: Any) None[source]

清除缓存,可以接受附加关键词参数。

参数

kwargs (Any) –

返回类型

None

delete_by_document_id(document_id: str) None[source]

由于这是一个“相似度搜索”缓存,一个合理的失效模式是首先查找以获取ID,然后使用该ID删除。这是第二步。

参数

document_id (str) –

返回类型

None

lookup(prompt: str, llm_string: str) Optional[Sequence[Generation]][source]

基于提示和llm_string进行查找。

预期的缓存实现应该从提示和llm_string的二元组生成一个密钥(例如,通过分隔符连接它们)。

参数
  • prompt (str) – 提示的字符串表示。在聊天模型的例子中,提示是对提示的非平凡序列化到语言模型。

  • llm_string (str) – LLM配置的字符串表示。这用于捕获LLM的调用参数(例如,模型名称、温度、停止令牌、最大令牌数等)。这些调用参数被序列化为字符串表示。

返回值

在缓存未命中时返回None。在缓存命中时返回缓存的值。缓存的值是Generations(或其子类)的列表。

返回类型

Optional[Sequence[Generation]]

lookup_with_id(prompt: str, llm_string: str) Optional[Tuple[str, Sequence[Generation]]][源代码]

根据提示和llm_string进行查找。如果有命中,返回顶部命中的(document_id, cached_entry)

参数
  • prompt (str) –

  • llm_string (str) –

返回类型

Optional[Tuple[str, Sequence[Generation]]]

lookup_with_id_through_llm(prompt: str, llm: LLM, stop: Optional[List[str]] = None) Optional[Tuple[str, Sequence[Generation]]][源代码]
参数
  • prompt (str) –

  • llm (LLM) –

  • stop (Optional[List[str]]) –

返回类型

Optional[Tuple[str, Sequence[Generation]]]

update(prompt: str, llm_string: str, return_val: Sequence[Generation]) None[源代码]

基于提示和llm_string更新缓存。

提示信息和llm_string用于生成缓存键。键应与查找方法的键匹配。

参数
  • prompt (str) – 提示的字符串表示。在聊天模型的例子中,提示是对提示的非平凡序列化到语言模型。

  • llm_string (str) – LLM配置的字符串表示。这用于捕获LLM的调用参数(例如,模型名称、温度、停止令牌、最大令牌数等)。这些调用参数被序列化为字符串表示。

  • return_val (Sequence[Generation]) – 要缓存的值。该值是生成列表(或其子类)。

返回类型

None