linux下镜像网站的几种方法

  1. 通过wget方式获取网站镜像

网站抓取对于做前端模版的人来说是很好用的,一般来说使用wget就已经足够使用。

wget本身没有图形界面,所以要进入终端进行操作

wget -m -e robots=off -k -E "http://www.abc.net/"
可以将全站下载以本地的当前工作目录,生成可访问、完整的镜像。

解释:
-m //镜像,就是整站抓取
-e robots=off //忽略robots协议,强制、流氓抓取
-k //将绝对URL链接转换为本地相对URL
-E //将所有text/html文档以.html扩展名保存

2.通过HTTrack:克隆一个网站页面到本地
安装:centos :yum install httrack
ubuntu:apt-get install httrack
使用起来也比较简单:
直接一条命令执行:
httrack "http://xiao106347.blog.163.com" -O /heome/backup/myweb/ "+.xiao106347.blog.163.com/" -v
注释:
"+.xiao106347.blog.163.com/" 表示以 ".xiao106347.blog.163.com/" 开头的所有页面,当然这里也可以直接是 "+http://xiao106347.blog.163.com/",因为网易博客前面就只有 http!