langchain_core.language_models.llms.get_prompts

langchain_core.language_models.llms.get_prompts(params: Dict[str, Any], prompts: List[str], cache: Optional[Union[BaseCache, bool]] = None) Tuple[Dict[int, List], str, List[int], List[str]][source]

获取已缓存的提示信息。

参数
  • params (Dict[str, Any]) – 参数字典。

  • prompts (List[str]) – 提示列表。

  • cache (Optional[Union[BaseCache, bool]]) – 缓存对象。默认为 None。

返回值

包含现有提示、llm_string、缺失提示索引、

以及缺失提示。

异常

ValueError – 如果缓存未设置且cache为True。

返回类型

Tuple[Dict[int, List], str, List[int], List[str]]