langchain_text_splitters.base.split_text_on_tokens

langchain_text_splitters.base.split_text_on_tokens(*, text: str, tokenizer: Tokenizer) List[str][source]

使用分词器分割传入的文本并返回片段。

参数
返回类型

列表[str]