langchain_aws.llms.bedrock.LLMInputOutputAdapter

class langchain_aws.llms.bedrock.LLMInputOutputAdapter[源代码]

适配器类,将从Langchain到LLM模型期望的格式准备输入。

它还提供了辅助函数,用于从模型响应中提取生成的文本。

属性

provider_to_output_key_map

方法

__init__()

aprepare_output_stream(提供者,  response[, ...])

prepare_input(提供者,  model_kwargs[, ...])

prepare_output(提供者,  response)

prepare_output_stream(提供者,  response[, ...])

__init__()
classmethod aprepare_output_stream(provider: str, response: Any, stop: Optional[List[str]], messages_api: bool = False, coerce_content_to_string: bool = False) AsyncIterator[Union[GenerationChunk, AIMessageChunk]][source]
参数
  • 提供者 (str) –

  • response (Any) –

  • stop (Optional[List[str]]) –

  • messages_api (bool) –

  • coerce_content_to_string (bool) –

返回类型

AsyncIterator[Union[GenerationChunk, AIMessageChunk]]

classmethod prepare_input(provider: str, model_kwargs: Dict[str, Any], prompt: Optional[str] = None, system: Optional[str] = None, messages: Optional[List[Dict]] = None, tools: Optional[List[AnthropicTool]] = None) Dict[str, Any][source]
参数
  • 提供者 (str) –

  • model_kwargs (Dict(str, Any)) –

  • prompt (可选 str) –

  • system (可选 str) –

  • messages (可选 list[dict]) –

  • tools (可选 list[AnthropicTool]) –

返回类型

dict(str, Any)

classmethod prepare_output(provider: str, response: Any) dict[source]
参数
  • 提供者 (str) –

  • response (Any) –

返回类型

dict

classmethod prepare_output_stream(provider: str, response: Any, stop: Optional[List[str]] = None, messages_api: bool = False, coerce_content_to_string: bool = False) Iterator[Union[GenerationChunk, AIMessageChunk]]
参数
  • 提供者 (str) –

  • response (Any) –

  • stop (Optional[List[str]]) –

  • messages_api (bool) –

  • coerce_content_to_string (bool) –

返回类型

Iterator[Union[GenerationChunk, AIMessageChunk]]