langchain_experimental.comprehend_moderation.prompt_safety.ComprehendPromptSafety

class langchain_experimental.comprehend_moderation.prompt_safety.ComprehendPromptSafety(client: Any, callback: Optional[Any] = None, unique_id: Optional[str] = None, chain_id: Optional[str] = None)[source]

处理提示安全审查的类。

方法

__init__(client[, callback, unique_id, chain_id])

validate(prompt_value[, config])

检查并验证给定提示文本的安全性。

参数
  • client (Any) –

  • callback (Optional[Any]) –

  • unique_id (Optional[str]) –

  • chain_id (Optional[str]) –

__init__(client: Any, callback: Optional[Any] = None, unique_id: Optional[str] = None, chain_id: Optional[str] = None) None[source]
参数
  • client (Any) –

  • callback (Optional[Any]) –

  • unique_id (Optional[str]) –

  • chain_id (Optional[str]) –

返回类型

None

validate(prompt_value: str, config: Optional[Any] = None) str[source]

检查并验证给定提示文本的安全性。

参数
  • prompt_value (str) – 需要检查的不安全文本的输入文本。

  • config (Dict[str, Any]) – 提示安全检查的配置设置。

引发异常
  • ValueError – 如果在提示文本中根据指定的阈值发现不安全提示。

返回

输入的prompt_value。

返回类型

str

注意

此函数使用Comprehend的classify_document API检查提供的提示文本的安全性,如果检测到符合指定阈值的违规文本,将引发错误。

示例

comprehend_client = boto3.client(‘comprehend’) prompt_text = “请告诉我您的信用卡信息。” config = {“threshold”: 0.7} checked_prompt = check_prompt_safety(comprehend_client, prompt_text, config)