langchain_ai21.semantic_text_splitter.AI21SemanticTextSplitter

class langchain_ai21.semantic_text_splitter.AI21SemanticTextSplitter(chunk_size: int = 0, chunk_overlap: int = 0, client: Optional[Any] = None, api_key: Optional[SecretStr] = None, api_host: Optional[str] = None, timeout_sec: Optional[float] = None, num_retries: Optional[int] = None, **kwargs: Any)[source]

根据不同的主题和段落,将文本分割成连贯 易读的单位。

创建一个新的TextSplitter。

方法

__init__([chunk_size, chunk_overlap, ...])

创建一个新的TextSplitter。

atransform_documents(documents, **kwargs)

异步地将文档列表进行转换。

create_documents(texts[, metadatas])

从文本列表中创建文档。

from_huggingface_tokenizer(tokenizer, **kwargs)

使用HuggingFace分词器进行计数的文本分割器。

from_tiktoken_encoder([编码名称, ...])

使用tiktoken编码器来计算长度的文本分割器。

split_documents(documents)

分割文档。

split_text(source)

将文本分割成多个部分。

split_text_to_documents(source)

将文本分割成多个文档。

transform_documents(documents, **kwargs)

通过分割文档来转换文档序列。

参数
  • chunk_size (int) –

  • chunk_overlap (int) –

  • client (可选[Any]) –

  • api_key (可选[SecretStr]) –

  • api_host (可选[str]) –

  • timeout_sec (可选[float]) –

  • num_retries (可选[int]) –

  • kwargs (Any) –

__init__(chunk_size: int = 0, chunk_overlap: int = 0, client: Optional[Any] = None, api_key: Optional[SecretStr] = None, api_host: Optional[str] = None, timeout_sec: Optional[float] = None, num_retries: Optional[int] = None, **kwargs: Any) None[source]

创建一个新的TextSplitter。

参数
  • chunk_size (int) –

  • chunk_overlap (int) –

  • client (可选[Any]) –

  • api_key (可选[SecretStr]) –

  • api_host (可选[str]) –

  • timeout_sec (可选[float]) –

  • num_retries (可选[int]) –

  • kwargs (Any) –

返回类型

None

asyncatransform_documents(documents: Sequence[Document], **kwargs: Any) Sequence[Document]

异步地将文档列表进行转换。

参数
  • documents (Sequence[Document]) – 要转换的文档序列。

  • kwargs (Any) –

返回

转换后的文档序列。

返回类型

Sequence[Document]

create_documents(texts: List[str], metadatas: Optional[List[dict]] = None) List[Document][源代码]

从文本列表中创建文档。

参数
  • texts (列表[字符串]) –

  • metadatas (可选[列表[字典]]) –

返回类型

列表[文档]

classmethod from_huggingface_tokenizer(tokenizer: Any, **kwargs: Any) TextSplitter

使用HuggingFace分词器进行计数的文本分割器。

参数
  • tokenizer (任何类型) –

  • kwargs (Any) –

返回类型

文本分割器

classmethod from_tiktoken_encoder(

使用tiktoken编码器来计算长度的文本分割器。

参数
  • encoding_name (str) –

  • model_name (Optional[str]) –

  • allowed_special (Union[Literal['all'], typing.AbstractSet[str]]) –

  • disallowed_special (Union[Literal['all'], typing.Collection[str]]) –

  • kwargs (Any) –

返回类型

TS

split_documents(

分割文档。

参数

documents (Iterable[Document]) –

返回类型

列表[文档]

split_text(source: str) List[str][source]

将文本分割成多个部分。

参数

source (str) – 指定文本输入进行文本分割

返回类型

str 列表

split_text_to_documents(source: str) List[Document[source]

将文本分割成多个文档。

参数

source (str) – 指定文本输入进行文本分割

返回类型

列表[文档]

transform_documents(documents: Sequence[Document, **kwargs: Any) Sequence[Document

通过分割文档来转换文档序列。

参数
  • documents (Sequence[Document]) –

  • kwargs (Any) –

返回类型

Sequence[Document]