在平时上网的时候,发现有些图片不错,想保存到本地,一个一个的保存确实够费劲的,如果把整个网页都保存了,有些又是自己不需要的,就算下载下来了,还得从上百个网页元素中去筛选,哪些是css文件,哪些是js文件。如果能够使用命令来作为图片下载器就好了,至少不用那么费神的去干很多重复的工作。
我们可以使用curl这个强大的工具来完成这个看似很艰难的任务。
首先的难点就是从网页中抓取图片的url,一般网页中都会是以的形式出现的。我们可以使用下面的形式来抽取图片的url
curl -s "$1" |egrep -o "]*>"|sed 's/
这样就会把网页中的Img标签的内容给抽取出来。
接着我们继续使用curl来根据得到的url来下载图片。
我们可以把命令整合起来,完整的脚本就类似下面的形式
curl -s $1 |egrep -o "]*>"|sed 's/tmp_getpic.sh
ksh tmp_getpic.sh
简单举个例子。
我们从下面的网站中下载图片
http://image.baidu.com/
直接运行 ksh getpic.sh "http://image.baidu.com/"
查看tmp_getpic.sh的内容如下:
curl -s -O http://img1.bdstatic.com/static/common/widget/search_box_home/logo/home_white_logo_0ddf152.png
curl -s -O http://img1.bdstatic.com/img/image/shitu/feimg/uploading.gif
curl -s -O http://img0.bdstatic.com/img/image/shouye/xinshouye/chongwu15.jpg
curl -s -O http://img0.bdstatic.com/img/image/shouye/xinshouye/sheying15.jpg
curl -s -O http://img0.bdstatic.com/img/image/shouye/xinshouye/mingxing15.jpg
curl -s -O http://img0.bdstatic.com/img/image/shouye/xinshouye/bizhi15.jpg
curl -s -O http://img0.bdstatic.com/img/image/shouye/xinshouye/sheji15.jpg
curl -s -O http://img0.bdstatic.com/img/image/shouye/xinshouye/shishang15.jpg
curl -s -O http://img0.bdstatic.com/img/image/shouye/xinshouye/meishi15a.jpg
curl -s -O http://img0.bdstatic.com/img/image/shouye/xinshouye/lvyou15.jpg
curl -s -O http://img0.bdstatic.com/img/image/shouye/xinshouye/hunjia15.jpg
curl -s -O http://img0.bdstatic.com/img/image/shouye/xinshouye/qiche15.jpg
[ora11g@rac1 ~]$
可见已经解析出了很多的图片了。直接通过curl下载就可以了。如果网站的链接再复杂一些也没有关系,基本都能解析出来。