langchain_core.language_models.llms.aget_prompts

async langchain_core.language_models.llms.aget_prompts(params: Dict[str, Any], prompts: List[str], cache: Optional[Union[BaseCache, bool]] = None) Tuple[Dict[int, List], str, List[int], List[str]][source]

获取已缓存的提示。异步版本。

参数
  • params (Dict[str, Any]) – 参数字典。

  • prompts (List[str]) – 提示列表。

  • cache (Optional[Union[BaseCache, bool]]) – 缓存对象。默认值为 None。

返回值

包含现有提示、llm_string、缺失提示索引、

以及缺失提示的元组。

引发

ValueError – 如果未设置缓存且缓存为 True 时。

返回类型

Tuple[Dict[int, List], str, List[int], List[str]]