langchain_core.language_models.llms
.get_prompts¶
- langchain_core.language_models.llms.get_prompts(params: Dict[str, Any], prompts: List[str], cache: Optional[Union[BaseCache, bool]] = None) Tuple[Dict[int, List], str, List[int], List[str]][source]¶
获取已缓存的提示信息。
- 参数
params (Dict[str, Any]) – 参数字典。
prompts (List[str]) – 提示列表。
cache (Optional[Union[BaseCache, bool]]) – 缓存对象。默认为 None。
- 返回值
- 包含现有提示、llm_string、缺失提示索引、
以及缺失提示。
- 异常
ValueError – 如果缓存未设置且cache为True。
- 返回类型
Tuple[Dict[int, List], str, List[int], List[str]]