langchain_core.language_models.llms
.update_cache¶
- langchain_core.language_models.llms.update_cache(cache: Optional[Union[BaseCache, bool]], existing_prompts: Dict[int, List], llm_string: str, missing_prompt_idxs: List[int], new_results: LLMResult, prompts: List[str]) Optional[dict]
更新缓存并获取LLM输出。
- 参数
- 返回
LLM输出。
- 异常
ValueError – 如果缓存未设置且缓存为True。
- 返回类型
Optional[dict]