您尚未登录。

#1 2020-04-21 08:40:11

驿窗
驿窗
所在地: 基础开源研究
注册时间: 2016-06-03
帖子: 928
个人网站

如何保存带有效链接的网页?

这个网站:
https://wiki.scribus.net/canvas/Get_Sta … th_Scribus

这是教程,有很多链接;
我现在想把教程网页及相关的链接保存到本机,生成一个可以在本地浏览的教程;
我可以一页一页保存下来,但这样保存的结果就是保存的文件无法相互链接;

有没有什么比较好用的工具能完成我的想法?


开源/Linux大众化,从驿窗开始~

离线

#2 2020-04-21 10:12:50

hounh
会员
注册时间: 2015-03-15
帖子: 48

Re: 如何保存带有效链接的网页?

httrack

离线

#3 2020-04-21 12:10:24

依云
会员
所在地: a.k.a. 百合仙子
注册时间: 2011-08-21
帖子: 8,961
个人网站

Re: 如何保存带有效链接的网页?

下网站我喜欢用

wget -T 5 -t 10 -Q 500m -nH -r -E -l inf -k -p -np 'URL'

不过你这个是 MediaWiki 的站,直接 https://wiki.scribus.net/canvas/Special:Export 导出就可以了嘛。所有页面也可以在特殊页面里找到。

离线

#4 2020-04-21 12:22:51

驿窗
驿窗
所在地: 基础开源研究
注册时间: 2016-06-03
帖子: 928
个人网站

Re: 如何保存带有效链接的网页?

我就知道你们肯定都有办法~

我试一下先~

最近编辑记录 驿窗 (2020-04-21 12:23:05)


开源/Linux大众化,从驿窗开始~

离线

#5 2020-04-21 16:13:02

驿窗
驿窗
所在地: 基础开源研究
注册时间: 2016-06-03
帖子: 928
个人网站

Re: 如何保存带有效链接的网页?

我找了几个网站,hounh的 httrack 偶尔会停在那不动,我在想是不是网站有防httrack的设置;
仙子的命令都有效~

https://wiki.scribus.net/canvas/Special:Export
这个导出我没注意,早适应就不用一页一页保存了 sad

最近编辑记录 驿窗 (2020-04-21 16:13:54)


开源/Linux大众化,从驿窗开始~

离线

页脚