langchain_community.document_loaders.chatgpt.ChatGPTLoader

class langchain_community.document_loaders.chatgpt.ChatGPTLoader(log_file: str, num_logs: int = -1)[源代码]

从导出的 ChatGPT 数据中加载对话。

初始化一个类对象。

参数
  • log_file (str) – 日志文件路径

  • num_logs (int) – 要加载的日志条目数。如果为 0,则加载所有日志。

方法

__init__(log_file[, num_logs])

初始化一个类对象。

alazy_load()

Document 的懒加载器。

aload()

将数据加载到 Document 对象中。

lazy_load()

Document 的懒加载器。

load()

将数据加载到 Document 对象中。

load_and_split([text_splitter])

加载 Documents 并将其拆分为片段。

__init__(log_file: str, num_logs: int = -1)[源代码]

初始化一个类对象。

参数
  • log_file (str) – 日志文件路径

  • num_logs (int) – 要加载的日志条目数。如果为 0,则加载所有日志。

async alazy_load() AsyncIterator[Document]

Document 的懒加载器。

返回类型

AsyncIterator[Document]

async aload() List[Document]

将数据加载到 Document 对象中。

返回类型

列表[Document]

lazy_load() Iterator[Document]

Document 的懒加载器。

返回类型

Iterator[Document]

load() List[Document][source]

将数据加载到 Document 对象中。

返回类型

列表[Document]

load_and_split(text_splitter: Optional[TextSplitter] = None) List[Document]

加载文档并将它们分割成块。块作为Document对象返回。

不要重写此方法。它应该被认为已被弃用!

参数

text_splitter (可选[TextSplitter]) - 用于分割文档的TextSplitter实例。默认为RecursiveCharacterTextSplitter。

返回

Document列表。

返回类型

List[Document]

使用ChatGPTLoader的示例