微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

基于nodejs 的多页面爬虫实例代码

前言

前端时间再回顾了一下node.js,于是顺势做了一个爬虫来加深自己对node的理解。

主要用的到是request,cheerio,async三个模块

request

用于请求地址和快速下载图片流。 https://github.com/request/request

cheerio

为服务器特别定制的,快速、灵活、实施的jQuery核心实现.

便于解析HTML代码https://www.npmjs.com/package/cheerio

async

异步调用,防止堵塞。 http://caolan.github.io/async/

核心思路

  1. 用request 发送一个请求。获取HTML代码,取得其中的img标签和a标签
  2. 通过获取的a表情进行递归调用。不断获取img地址和a地址,继续递归
  3. 获取img地址通过request(photo).pipe(fs.createWriteStream(dir + “/” + filename));进行快速下载。
rush:js;"> function requestall(url) {

request({

uri: url,headers: setting.header

},function (error,response,body) {

if (error) {

console.log(error);

} else {

console.log(response.statusCode);

if (!error && response.statusCode == 200) {

var $ = cheerio.load(body);

var photos = [];

$('img').each(function () {

 // 判断地址是否存在

 if ($(this).attr('src')) {

  var src = $(this).attr('src');

  var end = src.substr(-4,4).toLowerCase();

  if (end == '.jpg' || end == '.png' || end == '.jpeg') {

   if (IsURL(src)) {

    photos.push(src);

   }

  }

 }

});

downloadImg(photos,dir,setting.download_v);

// 递归爬虫

$('a').each(function () {

 var murl = $(this).attr('href');

 if (IsURL(murl)) {

  setTimeout(function () {

   fetchre(murl);

  },timeout);

  timeout += setting.ajax_timeout;

 } else {

  setTimeout(function () {

   fetchre("http://www.ivsky.com/" + murl);

  },timeout);

  timeout += setting.ajax_timeout;

 }

})

}

}

});

}

防坑

1.在request通过图片地址下载时,绑定error事件防止爬虫异常的中断。

2.通过async的mapLimit限制并发。

3.加入请求报头,防止ip被屏蔽

4.获取一些图片和超链接地址,可能是相对路径(待考虑解决是否有通过方法)。

rush:js;"> function downloadImg(photos,asyncNum) {

console.log("即将异步并发下载图片,当前并发数为:" + asyncNum);

async.mapLimit(photos,asyncNum,function (photo,callback) {

var filename = (new Date().getTime()) + photo.substr(-4,4);

if (filename) {

console.log('正在下载' + photo);

//

// fs.createWriteStream(dir + "/" + filename)

// 防止pipe错误

request(photo)

.on('error',function (err) {

 console.log(err);

})

.pipe(fs.createWriteStream(dir + "/" + filename));

console.log('下载完成');

callback(null,filename);

}

},function (err,result) {

if (err) {

console.log(err);

} else {

console.log(" all right ! ");

console.log(result);

}

})

}

测试:

可以感觉到速度还是比较快的。

完整地址https://github.com/hua1995116/node-crawler/

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持编程之家。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐