rvest包,优雅的爬取猎聘网招聘信息

浏览: 2318


前不久,我用rvest包爬取了政府工作报告,通过jiebaR分词,并用wordcloud2进行了词云分析。

《点击图片即可查看》

image.png

今天,我们来用rvest包爬取猎聘网上的招聘信息。

image.png


链接为 https://www.liepin.com/zhaopin/?init=1。打开的页面如上图,今天任务要爬取红色区域里面用绿色标记的那些信息,爬取完之后保存下来。

在开始之前,我先简单的介绍一下下面几个函数:

image.png

在写爬虫之前要对css和html有简单的了解才行,否侧就找不到节点。在这里给大家提供两个谷歌浏览器插件SelectorGadget和数据抓取分析工具,它们可以帮助我们很快分析出css。

image.png

在这种图片中,我已经框出标签了。ul.sojob_list下的div.sojob-item-main clearfix下的div.job-info,里面h3的a里面,嵌套的比较多,我那张图中没有把h3打开,你们可以使一下。这需要注意几个点:

  1. 标签名称中间如何有空格可以把空格后面的单词忽略不计,如何div.sojob-item-main clearfix就可以写成div.sojob-item-main。只要网页节点没有命名重复的其实节点也不用写这么具体,大家可以对比一下提取职位工作地点代码中节点的区别。

  2. html_nodes()函数中,先写父节点,再写子节点,中间用空格隔开,或者 >隔开。如果节点是标题时,需要用“”逗号与前面隔开。可以对比下面提取职位链接的代码。

一. 爬取网页代码

library(rvest)
url<-"https://www.liepin.com/zhaopin/?init=1"
#我们都知道这些数据更新频率比较快,因此为防止网页数据变化造成后面数据不一致,可以先将网页数据保存在page变量中
page<-read_html(url)

二.提取职位

position<-page%>%html_nodes('ul.sojob_list div.sojob-item-main div.job-info,h3 a')%>%html_text(trim =TRUE)
position  
#查看职位
position<- position[-41]  
#删除第41个

爬取的职位如下:

image.png

三.提取职位链接

我们都知道,每一个职位下面都有一个链接,打开这个链接就是这个职位的详细介绍。

link<- page %>% html_nodes('ul.sojob_list  div.job-info,h3 a')%>%html_attrs()
#也可以写成'ul.sojob_list div.sojob-item-main div.job-info,h3 a
link[1] #读取数据,规定编码
position<-web %>% html_nodes("div.pages_content") %>% html_text()

image.png

link其实就是一个list,查看link第一个时可以发现链接就是link的href。因此我用下面一个循环提取出来链接。

link1<-c(1:length(link))  #初始化一个和link长度相等的link1
for(i in 1:length(link))
  link1[i]<-link[[i]][1]
link1  
#查看link1
link2<-link1[-41]
#删除最后一行
link2    
#查看link2
link<-link2    
#将link2重新赋值给link

image.png

如上图,就是我们提取的链接。

四.提取薪水

salary <- page %>% html_nodes('span.text-warning') %>% html_text()
salary

image.png

OK,薪资也提取出来了。

五.提取工作地点

experience <- page %>% html_nodes('p.condition span') %>% html_text()
experience

image.png

六.提取教育背景

edu<-page %>% html_nodes('span.edu') %>% html_text()
edu

image.png

七.提取工作经验

experience <- page %>% html_nodes('p.condition span') %>% html_text()
experience

image.png

结果我们不但爬取了工作经验要求,也爬到了薪水,和学历。我们来看看下面这张截图,我只截取了前4个。

image.png

如果大家仔细观察的话,可以发现一个规律,experience的前三个是第一个职位的薪水,学历要求,和工作经验要求,第4个到6个是第二个职位的薪水,学历要求,和工作经验要求。依次可以类推。因此我们可以用一个双重循环来分别提取这三个内容。

dt<-matrix(,length(experience)/3,3)  #定义一个数据框,报存数据,也是为了方便后面数据进行对比
colnames(dt)<-c("sal","ed","exp")  
#数据框列命名 第一个是薪水,第二个是学历,第三个是经验
for(n in 1:3)  #n代表第n列
{
  j<-1  
#列数自加
  i<-n   
#初值代表第一列的初值位置
  while(i<=length(experience))
  {
      dt[j,n]=experience[i];
      j<-j+1
      i <- i+3
   }
}

image.png

八.数据合并

现在数据已经都获取完毕了,现在的任务就是把前面获取的全部信息汇总到一块。

Alldata<-matrix(,40,6)  #定义一个40行,6列的矩阵
Alldata[,1]<-position
Alldata[,2]<-dt[,1]
Alldata[,3]<-dt[,2]
Alldata[,4]<-dt[,3]
Alldata[,5]<-place
Alldata[,6]<-link
colnames(Alldata)<-c("职位","薪水","学历","经验","工作地点","链接")  
#给列命名
head(Alldata)  
#查看Alldata数据前6行
write.csv(Alldata,file="Alldata.csv",quote=F,row.names = F)  #保存csv文件中

image.png

 保存到csv文件后为

image.png

现在,职位链接我们也提取出来了,如何说想爬取职位的详细信息的话,那就不成问题了。如果你想爬取这个网页的数据,这些代码目前都还是可以用的,你可以去试试。下次有时间了再来对这些数据进行可视化分析。

如果你想验证我爬取的数据对不对,或者想获取爬取的数据,请点击阅读原文,通过百度网盘分享下载获取的数据和网页截图。密码:fmt8

推荐 2
本文由 王亨 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。
转载、引用前需联系作者,并署名作者且注明文章出处。
本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

0 个评论

要回复文章请先登录注册