langchain_community.document_loaders.docusaurus
.DocusaurusLoader¶
- class langchain_community.document_loaders.docusaurus.DocusaurusLoader(url: str, custom_html_tags: Optional[List[str]] = None, **kwargs: Any)[源代码]¶
从 Docusaurus 文档加载。
它利用 SitemapLoader 来遍历 Docusaurus 文档网站的生成页面,并通过查找特定 HTML 标签来提取内容。默认情况下,解析器搜索 Docusaurus 页面的主要内容,通常是 <article> 标签。您也可以通过提供一个列表来定义自己的定制 HTML 标签,例如:[“div”, “.main”, “a”]。
初始化 DocusaurusLoader
- 参数
url (str) – Docusaurus 网站的基 URL。
custom_html_tags (Optional[List[str]]) – 可选的自定义 HTML 标签,用于从页面提取内容。
kwargs (Any) – 传递给底层 SitemapLoader 的额外参数,例如:filter_urls,blocksize,meta_function,is_local,continue_on_failure
属性
web_path
方法
__init__
(url[, custom_html_tags])初始化 DocusaurusLoader
Documents 的懒加载。
aload
()将 web_path 中的 urls 异步加载到 Documents 中。
fetch_all
(urls)以限流方式并发提取所有 urls。
加载网站地图。
load
()将数据加载到 Document 对象中。
load_and_split
([text_splitter])加载 Documents 并将其分割成块。
parse_sitemap
(soup, *[, depth])解析网站地图 xml 并将其加载到字典列表中。
scrape
([parser])从网页中抓取数据,并以 BeautifulSoup 格式返回。
scrape_all
(urls[, parser])提取所有 urls,然后返回所有结果的 soup。
- __init__(url: str, custom_html_tags: Optional[List[str]] = None, **kwargs: Any)
初始化 DocusaurusLoader
- 参数
url (str) – Docusaurus 网站的基 URL。
custom_html_tags (Optional[List[str]]) – 可选的自定义 HTML 标签,用于从页面提取内容。
kwargs (Any) – 传递给底层 SitemapLoader 的额外参数,例如:filter_urls,blocksize,meta_function,is_local,continue_on_failure
- async fetch_all(urls: List[str]) Any
以限流方式并发提取所有 urls。
- 参数
urls (List[str]) –
- 返回类型
任何
- load() List[Document]
将数据加载到 Document 对象中。
- load_and_split(text_splitter: Optional[TextSplitter] = None) List[Document]
加载文档并将其分割成块。块以Document的形式返回。
请不要覆盖此方法。应考虑将其弃用!
- 参数
text_splitter (可选[TextSplitter]) - 用于分割文档的TextSplitter实例。默认值为RecursiveCharacterTextSplitter。
- 返回
文档列表。
- 返回类型
List[Document]
- parse_sitemap(soup: Any, *, depth: int = 0) List[dict]
解析网站地图 xml 并将其加载到字典列表中。
- 参数
soup (Any) - BeautifulSoup对象。
depth (int) - 当前网站地图的深度。默认值:0
- 返回
字典列表。
- 返回类型
List[dict]
- scrape(parser: Optional[str] = None) Any
从网页中抓取数据,并以 BeautifulSoup 格式返回。
- 参数
parser (可选[str]) -
- 返回类型
任何
- scrape_all(urls: List[str], parser: Optional[str] = None) List[Any] ¶
提取所有 urls,然后返回所有结果的 soup。
- 参数
urls (List[str]) –
parser (可选[str]) -
- 返回类型
Any[]