实战Python网络爬虫
上QQ阅读APP看书,第一时间看更新

第1章
理解网络爬虫

1.1 爬虫的定义

网络爬虫是一种按照一定的规则自动地抓取网络信息的程序或者脚本。简单来说,网络爬虫就是根据一定的算法实现编程开发,主要通过URL实现数据的抓取和发掘。

随着大数据时代的发展,数据规模越来越庞大,数据类型繁多,但是数据价值普遍较低。为了从庞大的数据体系里获取有价值的数据,从而延伸了网络爬虫、数据分析等多个职位。近几年,网络爬虫的需求更是井喷式地爆发,在招聘的供求市场上往往是供不应求,造成这个现状的主要原因就是求职者的专业水平低于需求企业的要求。

传统的爬虫有百度、Google、必应等搜索引擎,这类通用的搜索引擎都有自己的核心算法。但是,通用的搜索引擎存在着一定的局限性:

(1)不同的搜索引擎对于同一个搜索会有不同的结果,搜索出来的结果未必是用户需要的信息。

(2)通用的搜索引擎扩大了网络覆盖率,但有限的搜索引擎服务器资源与无限的网络数据资源之间的矛盾将进一步加深。

(3)随着网络上数据形式繁多和网络技术的不断发展,图片、数据库、音频、视频多媒体等不同数据大量出现,通用搜索引擎往往对这些信息含量密集且具有一定结构的数据无能为力,不能很好地发现和获取。

因此,为了得到准确的数据,定向抓取相关网页资源的聚焦爬虫应运而生。聚焦爬虫是一个自动下载网页的程序,可根据设定的抓取目标有目的性地访问互联网上的网页与相关的URL,从而获取所需要的信息。与通用爬虫不同,聚焦爬虫并不追求全面的覆盖率,而是抓取与某一特定内容相关的网页,为面向特定的用户提供准备数据资源。