langchain_experimental.comprehend_moderation.toxicity.ComprehendToxicity¶
- class langchain_experimental.comprehend_moderation.toxicity.ComprehendToxicity(client: Any, callback: Optional[Any] = None, unique_id: Optional[str] = None, chain_id: Optional[str] = None)[source]¶
- 处理毒性适度的类。 - 方法 - __init__(client[, callback, unique_id, chain_id])- validate(prompt_value[, config])- 使用AWS Comprehend服务检查给定文本提示的毒性,并根据配置应用操作。 - 参数
- client (Any) – 
- callback (Optional[Any]) – 
- unique_id (Optional[str]) – 
- chain_id (Optional[str]) – 
 
 - __init__(client: Any, callback: Optional[Any] = None, unique_id: Optional[str] = None, chain_id: Optional[str] = None) None[source]¶
- 参数
- client (Any) – 
- callback (Optional[Any]) – 
- unique_id (Optional[str]) – 
- chain_id (Optional[str]) – 
 
- 返回类型
- None 
 
 - validate(prompt_value: str, config: Optional[Any] = None) str[source]¶
- 使用AWS Comprehend服务检查给定文本提示的毒性并基于配置执行操作。 :param prompt_value: 要检查毒性的文本内容。 :type prompt_value: str :param config: 毒性检查和操作的配置。 :type config: Dict[str, Any] - 返回
- 如果允许则返回原始的prompt_value或未发现毒性。 
- 返回类型
- str 
- 抛出
- ValueError – 如果提示包含毒性标签且无法 
- 根据配置进行处理。 – 
 
- 参数
- prompt_value (str) – 
- config (Optional[Any]) –