langchain_community.document_loaders.fauna.FaunaLoader

class langchain_community.document_loaders.fauna.FaunaLoader(query: str, page_content_field: str, secret: str, metadata_fields: Optional[Sequence[str]] = None)[source]

FaunaDB 加载。

参数
  • query (str) –

  • page_content_field (str) –

  • secret (str) –

  • metadata_fields (Optional[Sequence[str]]) –

query

要执行的 FQL 查询字符串。

类型

str

page_content_field

包含每页内容的字段。

类型

str

secret

FaunaDB 认证的密钥。

类型

str

metadata_fields

可选的元数据中包含的字段名列表。

类型

Optional[Sequence[str]]

方法

__init__(query, page_content_field, secret)

alazy_load()

Documents 的懒加载器。

aload()

将数据加载到 Document 对象中。

lazy_load()

Documents 的懒加载器。

load()

将数据加载到 Document 对象中。

load_and_split([text_splitter])

加载 Documents 并将其分割成块。

__init__(query: str, page_content_field: str, secret: str, metadata_fields: Optional[Sequence[str]])[source]
参数
  • query (str) –

  • page_content_field (str) –

  • secret (str) –

  • metadata_fields (Optional[Sequence[str]]) –

async alazy_load() AsyncIterator[Document]

Documents 的懒加载器。

返回类型

AsyncIterator[Document]

async aload() List[Document]

将数据加载到 Document 对象中。

返回类型

List[Document]

lazy_load() Iterator[Document][source]

Documents 的懒加载器。

返回类型

Iterator[Document]

load() List[Document]

将数据加载到 Document 对象中。

返回类型

List[Document]

load_and_split(text_splitter: Optional[TextSplitter] = None) List[Document]

加载文档并将它们分成块。块作为文档返回。

不要重写这个方法。应将其视为已过时!

参数

text_splitter (可选[TextSplitter]) – 用于分割文档的TextSplitter实例。默认为RecursiveCharacterTextSplitter。

返回

文档列表。

返回类型

List[Document]

使用FaunaLoader的示例