房天下数据爬取及简单数据分析

浏览: 2247


总第64篇

01|明确本次爬虫以及目的:


我是想看看太原的房地产情况,包括楼盘名称、价格、所处区域、评论数(一定程度上可以反映出该楼盘受欢迎程度)。

明确了目的以后就该去寻找这些数据的出处,也就是网站,由于太原互联网环境欠发达,所以好多房产APP上都没有太原,有的APP有,但是也只有几十家楼盘,最后在搜索的过程中锁定了房天下。这个楼盘数量还是可以的,也有我们需要的数据,所以就他了。

Clipboard Image.png

02|目标网页分析:

通过查看网页,我们知道目标数据存储在17页中,这就不是普通的静态网页爬取,这种需要翻页的数据爬取,我们一般有两种方法:一是通过修改url参数进行网页的切换,二是通过调用selenium模拟浏览器进行下一页的点击。


上面两个截图一个是17页,一个是9页对应的url,我们发现在参数上并没有明确的规律,看来利用修改参数的方法是行不通了,只能使用selenium,在使用selenium实现的过程中,我无意间发现了事情:


的,我就把href里面的对应链接粘贴到搜索框,发现真能跳转到相应的页面,看来是不需要使用selenium了,用修改参数的方法进行循环即可。

03|数据的抓取:

#导入常用的库import random
import requests
import pandas as pd
from bs4 import BeautifulSoup

#建立a,b,c,d四个空列表用来存放一会抓取到的数据a_name=[]b_adress=[]c_price=[]d_comment_value=[]

#开始url参数循环,即网页的循环for i in range(1,18):    url="http://newhouse.taiyuan.fang.com/house/s/b9"+str(i)+"/"    html=requests.get(url)    html.encoding="GBK"#解决中文乱码问题    soup = BeautifulSoup(html.text, 'lxml')#使用lxml解析方式    
   #开始抓取楼盘名称的循环    first=soup. find_all(class_='nlcd_name')#抓取class属性为=“nlcd_name”对应的内容    for name in first:#依次取出first里面的每一条内容        name1=name.find_all("a")#把从first里面取出来的内容进行再次查找其中a标签的内容        for name2 in name1:#依次取出name1里面的每一条内容name2            a_name.append(name2.get_text().strip())#通过get_text()获取name2的内容,并添加到a_name列表里面。     print (i,len(a_name))#打印出每一次循环以后a_name列表的长度,每一次循环对应一页的内容,该长度代表每一页抓取到的数量    
    #开始抓取楼盘地处区域的循环     Adress=soup. find_all(class_="address")    
    for adress in Adress:        
        for adress1 in adress.select("a"):#通过select选择器选择adress里面的a标签。
            b_adress.append(adress1.text.strip()[0:5].strip())     print (i,len(b_adress))  
   
    #开始抓取楼盘价格的循环,循环注释与前面类似     Price=soup. find_all(class_="nhouse_price")    
    for price in Price:        
        for price1 in price.select("span"):
            c_price.append(price1.get_text())            
    print (i,len(c_price))    
   
    #开始抓取楼盘对应评论数量的循环,循环注释与前面类似
    value_num=soup. find_all(class_='value_num')    
    for num1 in value_num:
       d_comment_value.append(num1.get_text()[1:-4])
    print (i,len(d_comment_value))

Clipboard Image.png

Clipboard Image.png

上述表格为部分页数对应的数据个数,按理来说,每一页不同的指标之间的个数是相同的,而实际是不同的,说明每一页抓取到的个别指标有缺失。我们具体去看看有缺失的页数。


通过观察发现,第一页中确实有一个楼盘的价格缺失。我们需要对缺失值进行填充处理。因为必须保证楼盘、区域、价格、评论数一一对应,所以我们采取向指定的确实位置插入值。

#向c_price列表中指定位置插入值c_price.insert(0,"价格待定")
c_price.insert(252,"价格待定")
c_price.insert(253,"价格待定")
c_price.insert(254,"价格待定")

#向d_comment_value列表中指定位置插入值
d_comment_value.insert(167,"0")
d_comment_value.insert(174,"0")
d_comment_value.insert(259,"0")
d_comment_value.insert(260,"0")
d_comment_value.insert(316,"0")
d_comment_value.insert(317,"0")

04|数据分析:

DataFrame表生成

data={"name":a_name,"adress":b_adress,"price":c_price,"comment_num":d_comment_value}#生成字典
house=pd.DataFrame(data)#创建DataFrame对象
house.head(5)

Clipboard Image.png


数据预处理

#值替换,将汉字替换成拼音便于后续处理
house.replace(["[万柏林]","[小店]","[尖草坪]","[晋源]"],
             ["wanbailin","xiaodian","jiancaoping","jinyuan"],inplace=True)
house.replace(["[杏花岭]","[迎泽]"],
             ["xinghualing","yingze"],inplace=True)
house.replace(["[榆次]","晋中","[阳曲]","马来西亚柔"],"other",inplace=True)
house.replace("价格待定",0,inplace=True)

#值类型转换,便于进行数值运算
house.comment_num=house.comment_num.astype(int)
house.price=house.price.astype(float)

数据分析

adress分析

house.groupby("adress").count()["name"]/334*100#将数据按楼盘所处位置进行分组#绘制各地区楼盘占比的饼图
labels = 'xiao_dian', 'wan_bai_lin','xing_hua_ling', 'jian_cao_ping', 'ying_ze','jin_yuan','other'
sizes = [34.73, 20.96, 10.78, 8.98,8.98,8.68,6.89]
colors = ['yellowgreen', 'gold', 'lightskyblue', 'lightcoral','red','pink','blue']
plt.pie(sizes,labels=labels,colors=colors,
       autopct='%1.1f%%', shadow=True, startangle=90)



Clipboard Image.png

通过数据可以发现,小店区的楼盘数量占比最多为34.7%,其次依次为:万柏林区、杏花岭区、尖草坪区、迎泽区、晋源区、其他

comment_num分析

house.sort_index(by="comment_num",ascending=False).head(10)#按评论数进行排序,挑选出评论数前十的楼盘


评论数量一定程度上可以说明该楼盘的受欢迎程度,上图表为太原市热评前十的楼盘。

price分析

house.sort_index(by="price",ascending=False).head(10)#按价格进行排序,挑选出价格前十的楼盘


(太原市价格排名前十的楼盘)

house.sort_index(by="price",ascending=False)[:196].price.mean()#计算价格均值
house.sort_index(by="price",ascending=False)[:196].price.std()#计算价格的标准差
new_price=house.sort_index(by="price",ascending=False)[:196].price
bins=[0,6000,7000,8000,9000,10000,2000000]
cats=pd.cut(new_price,bins)
price_cut=pd.value_counts(cats)
price_cut.plot(kind="bar",color="grey")
plt.xlabel('price')
plt.ylabel('num')

通过计算结果可得:

  • 太原市楼盘的均价为:10592元/平方米。

  • 太原市楼盘的标准差为:9876元。

  • 太原市的楼盘中价格大于10000的楼盘数量最多,其次是(8000-9000),楼盘数量最少对应的价格是(9000-10000)。

  • 太原市楼盘中价格最高的为恒大滨河左岸,一平米价格为12.5万,真实大开眼界,太原还有这么贵的楼盘哈。


new image - mgpxd.jpg

推荐 3
本文由 张俊红 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。
转载、引用前需联系作者,并署名作者且注明文章出处。
本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

2 个评论

肉测的信息是链家的实际成交金额最准,张老师试试爬链家的
忽然又想到一个应用场景,就是实际上挂牌价和成交价差异很大的,很多小区就是挂了虚高的价格,实际成交没有那么高,能差好几十万,而且两次成交间隔越长的小区说明越难卖,这样谈判的时候就很有优势,哈哈哈,可以试试
对对,我也亲测过房天下的价格不是太准,不过链家没有太原的数据,所以我就选了房天下了哈。后面这个我去试试哈

要回复文章请先登录注册