第一次得知Wget是在王垠的网页上,随后我下载下来试用,结果越用越爱,现在已经欲罢不能了。
Wget是一款源自UNIX的下载工具。虽然它是字符界面下的工具,但它的功能却很强劲。我只用它最简单的功能,就可以完全代替了Flashget和Webzip了。
不仅如此,相对于Windows下的下载工具来说,Wget十分小巧,完全版本只有940K,主程序文件只有252K大小。而且Wget是完全绿色的,不需要安装。
下面我来说说我平时使用Wget的方法。
我要下载一个文件,只要在命令行中简单的输入“wget 下载文件地址”就可以了。如果我要限速(其实Wget不像Flashget、迅雷那样抢带宽,我这里使用Wget下载完全没有卡的感觉)的话,输入“wget –limit-rate=20k 下载文件地址”就可以把速度限制为每秒20K了。如果我有个文件没有下完,要续传的话,使用“wget -c 下载文件地址”就OK了。
其实上面的功能对于要求不高的Windows用户来说意义并不大,Flashget也可以完成这些功能,或许还更方便。不过对我来说,Wget最强大之处,就是它的网站下载功能。
在浏览网页时,我遇到过不少好的网站。它们大多是一部教材,不过是分章节显示的。我要是想把它们存在硬盘上,只能一章一章的打开,然后保存。这样的话,章节一多,我就吃不消了。而且就算把每一章都保存下来,我阅读的时候也相当困难,因为每一页两端的“上一章”和“下一章”链接都没法使用,我还要手动打开下一章。
我在97年左右听说了Webzip工具可以把页面全部端下来,立即下载下来试用,结果当时的我没有搞成功,而且那个软件有使用限制,需要注册。当时的我也不懂可以从网上找注册码(网上注册码也少,而且那是还没有Google呢)。Webzip下载下来的页面很难看,而且还在页面里加上自己的广告,让人很不爽。
后来我完全忘记了这件事,直到我从王垠的网页上得知了这个工具。经过研究,我现在要下载一个网站,只要输入“wget -mp 网站地址”就可以了。Wget可以自动的找出相关页面,把它们一并下载下来。而且相关的链接也被自动修改,我在本地浏览这些页面,与在网上浏览它们一模一样。例如,我想下载《计算机程序的设计与解释》这本书(网址为:http://mitpress.mit.edu/sicp/full-text/book/book.html),就输入“wget -mp http://mitpress.mit.edu/sicp/full-text/book/book.html”就行了,完全不用在操心更多。
如果网站的作者修改了网站,我们怎样跟踪这些修改呢?我们只要把上面那个命令再输入一遍,Wget会找出被修改过的地方,然后同步到我们保存在本地的目录中。
最后,Wget可以从这里下载,马上开始吧。