langchain_core.language_models.llms
.aget_prompts¶
- async langchain_core.language_models.llms.aget_prompts(params: Dict[str, Any], prompts: List[str], cache: Optional[Union[BaseCache, bool]] = None) Tuple[Dict[int, List], str, List[int], List[str]] [source]¶
获取已缓存的提示。异步版本。
- 参数
params (Dict[str, Any]) – 参数字典。
prompts (List[str]) – 提示列表。
cache (Optional[Union[BaseCache, bool]]) – 缓存对象。默认值为 None。
- 返回值
- 包含现有提示、llm_string、缺失提示索引、
以及缺失提示的元组。
- 引发
ValueError – 如果未设置缓存且缓存为 True 时。
- 返回类型
Tuple[Dict[int, List], str, List[int], List[str]]