langchain_core.language_models.llms.aupdate_cache

async langchain_core.language_models.llms.aupdate_cache(cache: Optional[Union[BaseCache, bool]], existing_prompts: Dict[int, List], llm_string: str, missing_prompt_idxs: List[int], new_results: LLMResult, prompts: List[str]) Optional[dict][源代码]

更新缓存并获取LLM输出。异步版本。

参数
  • cache (可选[Union[BaseCache, bool]]) – 缓存对象。

  • existing_prompts (字典[int, ]) – 已存在提示的字典。

  • llm_string (字符串) – LLM字符串。

  • missing_prompt_idxs (列表[int]) – 缺失提示索引列表。

  • new_results (LLMResult) – LLMResult对象。

  • prompts (列表[字符串]) – 提示列表。

返回值

LLM输出。

抛出异常

ValueError – 如果缓存未设置且cache为True。

返回类型

可选[字典]