手把手教你使用Python爬取西刺代理数据(下篇)

浏览: 1118

/1 前言/

前几天小编发布了手把手教你使用Python爬取西次代理数据(上篇),图片描述木有赶上车的小伙伴,可以戳进去看看。今天小编带大家进行网页结构的分析以及网页数据的提取,具体步骤如下。


/2 首页分析及提取/

首先进入网站主页,如下图所示。
图片描述

简单分析下页面,其中后面的 1 是页码的意思,分析后发现每一页有100 多条数据,然后网站底部总共有 2700+页 的链接,所以总共ip 代理加起来超过 27 万条数据,但是后面的数据大部分都是很多年前的数据了,比如 2012 年,大概就前 5000 多条是最近一个月的,所以决定爬取前面100 页。通 过网站 url 分析,可以知道这 100 页的 url 为:
图片描述

规律显而易见,在程序中,我们使用一个 for 循环即可完整这个操作:
图片描述

其中 scrapy 函数是爬取的主要逻辑,对应的代码为:
图片描述

通过这个方式,我们可以得到每一页的数据。


/3 网页元素分析及提取/

接下来就是对页面内的元素进行分析,提取其中的代理信息。
图片描述

如上图,我们目的是进行代理地域分布分析,同时,在爬取过程中需要使用爬取的数据进行代 理更新,所以需要以下几个字段的信息:

Ip 地址、端口、服务器位置、类型

为此,先构建一个类,用于保存这些信息:
图片描述

这样,每爬取一条信息,只要实例化一个 ProxyBean 类即可,非常方便。

接下来就是提取元素过程了,在这个过程我使用了正则表达式和 BeautifulSoup 库进行关键数据提取。

首先,通过分析网页发现,所有的条目实际上都是放在一个<table>标签中。
图片描述

该便签内容如下:
<table id="ip_list">……</table>
我们首先通过正则表达式将该标签的内容提取出来:
正则表达式为:
<table id="ip_list">([\S\s]*)</table>
, 表示搜索
<table id="ip_list">

</table>
之 间的任意字符组成的数据。Python 中的实现如下:
图片描述

其中得到的 data 就是这个标签的内容了。下面进一步分析。

进入到 table 中,发现每一个代理分别站 table 的一列,但是这些标签分为两类,一 类包含属性 class=“odd”, 另一类不包含。
图片描述

这个时候,可以使用 BeautifulSoup 对标签进行提取:
图片描述

通过这种方式,就能获取到每一个列的列表了。

接下来就是从每个列中获取 ip、端口、位置、类型等信息了。进一步分析页面:

1、IP 字段:
图片描述

我们使用正则表达式对 IP 进行解析,IP 正则如下:

** (2[0-5]{2}|[0-1]?\d{1,2})(.(2[0-5]{2}|[0-1]?\d{1,2})){3}**
图片描述

2、 端口字段
图片描述

端口由包裹,并且中间全部是数字,故可构造如下正则进行提取:

<td>([0-9]+)</td>

图片描述

3、 位置字段

位置字段如下:
图片描述

由 便签包裹,构造如下正则即可提取:
<a href="https://ask.hellobi.com/([>]*)>([<]*)</a>
图片描述

4、类型字段

类型字段如下:
图片描述

由包裹,中间为字母,构造正则如下:

<td>([A-Za-z]+)</td>
图片描述

数据全部获取完之后,将其保存到文件中即可:
图片描述

最后爬取的数据集如下图所示:
图片描述

此次总共爬取了前面 5300 多条数据。


/4 小结/

本次任务主要爬取了代理网站上的代理数据。主要做了以下方面的工作:

1、学习 requests 库的使用以及爬虫程序的编写;

2、学习使用反爬虫技术手段,并在实际应用中应用这些技术,如代理池技术;

3、学习使用正则表达式,并通过正则表达式进行网页元素提取;

4、学习使用 beautifulsoup 库,并使用该库进行网页元素的提取。

Python爬虫是一项综合技能,在爬取网站的过程中能够学到很多知识,希望大家多多专研,需要代码的小伙伴,可以在[Python爬虫与数据挖掘]公众号后台回复“代理”二字,即可获取。

想学习更多关于Python的知识,可以参考Python爬虫与数据挖掘网站:http://pdcfighting.com/

推荐 0
本文由 dcpeng 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。
转载、引用前需联系作者,并署名作者且注明文章出处。
本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

0 个评论

要回复文章请先登录注册