爬虫对目标网页爬取的过程可以参考下面黑色文字部分:
图片中由黑色文字组成的循环应该很好理解,那么具体到编程上来说,则必须将上面的流程进行抽象,我们可以编写几个元件,每个元件完成一项功能,上图中的蓝底白字就是对这一流程的抽象:
爬虫调度器将要完成整个循环,下面写出python下爬虫调度器的程序:
存储器、下载器、解析器和url管理器!
首先,还是来看看下面这张图,URL管理器到底应该具有哪些功能?
下面来说说下载器。
下载器的作用就是接受URL管理器传递给它的一个url,然后把该网页的内容下载下来。python自带有urllib和urllib2等库(这两个库在python3中合并为urllib),它们的作用就是获取指定的网页内容。不过,在这里我们要使用一个更加简洁好用而且功能更加强大的模块:Requests(查看文档)。
Requests并非python自带模块,需要安装。关于其具体使用方法请查看相关文档,在此不多做介绍。
下载器接受一个url作为参数,返回值为下载到的网页内容(格式为str)。下面就是一个简单的下载器,其中只有一个简单的函数download():
在requests请求中设置User-Agent的目的是伪装成浏览器,这是一只优秀的爬虫应该有的觉悟。
URL管理器和下载器相对简单!剩下的下次介绍,希望能帮到零基础小白的你!
进群:125240963 即可获取数十套PDF!
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。