langchain_core.language_models.llms
.aupdate_cache¶
- async langchain_core.language_models.llms.aupdate_cache(cache: Optional[Union[BaseCache, bool]], existing_prompts: Dict[int, List], llm_string: str, missing_prompt_idxs: List[int], new_results: LLMResult, prompts: List[str]) Optional[dict] [源代码]¶
更新缓存并获取LLM输出。异步版本。