langchain_community.document_loaders.scrapfly
.ScrapflyLoader¶
- class langchain_community.document_loaders.scrapfly.ScrapflyLoader(urls: List[str], *, api_key: Optional[str], scrape_format: Literal['markdown', 'text'] = 'markdown', scrape_config: Optional[dict] = None, continue_on_failure: bool = True)[来源]¶
使用 Scrapfly.io 将 URL 转换为 llm 可访问的 Markdown。
更多详情,请访问:https://scrapfly.io/docs/sdk/python
初始化客户端。
- 参数
urls (列表[str]) – 要抓取的 URL 列表。
api_key (可选[str]) – Scrapfly API 密钥。如果没有指定,必须设置环境变量 SCRAPFLY_API_KEY。
scrape_format (文字['markdown', 'text']) – 抓取结果格式,可以是“markdown”或“text”之一。
scrape_config (可选[dict]) – ScrapFly 抓取配置字典对象。
continue_on_failure (布尔) – 在抓取 URL 失败时是否继续。
方法
__init__
(urls, [api_key, scrape_format, ...])初始化客户端。
Documents 的懒惰加载器。
aload
()将数据加载到 Document 对象中。
Documents 的懒惰加载器。
load
()将数据加载到 Document 对象中。
load_and_split
([text_splitter])加载 Documents 并将其分割成块。
- __init__(urls: List[str], *, api_key: Optional[str] = None, scrape_format: Literal['markdown', 'text'] = 'markdown', scrape_config: Optional[dict] = None, continue_on_failure: bool = True) None [源代码]¶
初始化客户端。
- 参数
urls (列表[str]) – 要抓取的 URL 列表。
api_key (可选[str]) – Scrapfly API 密钥。如果没有指定,必须设置环境变量 SCRAPFLY_API_KEY。
scrape_format (文字['markdown', 'text']) – 抓取结果格式,可以是“markdown”或“text”之一。
scrape_config (可选[dict]) – ScrapFly 抓取配置字典对象。
continue_on_failure (布尔) – 在抓取 URL 失败时是否继续。
- 返回类型
None
- load_and_split(text_splitter: Optional[TextSplitter] = None) List[Document] ¶
加载文档并将它们分成块。块作为文档返回。
不要重写此方法。应考虑将其弃用!
- 参数
text_splitter (可选:Optional[TextSplitter]) – 用于拆分文档的 TextSplitter 实例。默认为 RecursiveCharacterTextSplitter。
- 返回
文档列表。
- 返回类型
List[Document]