登录 主页

使用wget抓取整个网站(wget fetch website)

2024-09-14 05:34PM

参考:https://askubuntu.com/questions/391622/download-a-whole-website-with-wget-or-other-including-all-its-downloadable-con

可以使用 wget 来直接抓取整个网站

$ wget -r http://example.com

也可以只抓取指定页数的网站

eg:我这里只抓取了3层

$ wget --recursive --level=3 --page-requisites --convert-links --no-parent https://www.settlemint.com/ 

本地启动网站:

在终端中进入你的静态网站文件夹,然后运行以下命令:

(我这里使用的是ruby)

ruby -run -e httpd . -p 8000

这将会在当前文件夹启动一个服务器,并默认在 8000 端口上运行。你可以在浏览器中访问 http://localhost:8000 查看静态网站。 

返回>>

登录

请登录后再发表评论。

评论列表:

目前还没有人发表评论