Python爬取房产数据,在地图上展现!

浏览: 1403

作者:欧巴        Python爱好者社区专栏作者

知乎专栏:Python学习之路

https://zhuanlan.zhihu.com/pythonlearn

小伙伴,我又来了,这次我们写的是用python爬虫爬取乌鲁木齐的房产数据并展示在地图上,地图工具我用的是 BDP个人版-免费在线数据分析软件,数据可视化软件 ,这个可以导入csv或者excel数据。

首先还是分析思路,爬取网站数据,获取小区名称,地址,价格,经纬度,保存在excel里。再把excel数据上传到BDP网站,生成地图报表

本次我使用的是scrapy框架,可能有点大材小用了,主要是刚学完用这个练练手,再写代码前我还是建议大家先分析网站,分析好数据,再去动手写代码,因为好的分析可以事半功倍,乌鲁木齐楼盘,2017乌鲁木齐新楼盘,乌鲁木齐楼盘信息 - 乌鲁木齐吉屋网 这个网站的数据比较全,每一页获取房产的LIST信息,并且翻页,点进去是详情页,获取房产的详细信息(包含名称,地址,房价,经纬度),再用pipelines保存item到excel里,最后在bdp生成地图报表,废话不多说上代码:

JiwuspiderSpider.py

# -*- coding: utf-8 -*-
from scrapy import Spider,Request
import re
from jiwu.items import JiwuItem


class JiwuspiderSpider(Spider):
   name = "jiwuspider"
   allowed_domains = ["wlmq.jiwu.com"]
   start_urls = ['http://wlmq.jiwu.com/loupan']

   def parse(self, response):
       """
       解析每一页房屋的list
       :param response:
       :return:
       """
       for url in response.xpath('//a[@class="index_scale"]/@href').extract():
           yield Request(url,self.parse_html)  # 取list集合中的url  调用详情解析方法

       # 如果下一页属性还存在,则把下一页的url获取出来
       nextpage = response.xpath('//a[@class="tg-rownum-next index-icon"]/@href').extract_first()
       #判断是否为空
       if nextpage:
           yield Request(nextpage,self.parse)  #回调自己继续解析



   def parse_html(self,response):
       """
       解析每一个房产信息的详情页面,生成item
       :param response:
       :return:
       """
       pattern = re.compile('<script type="text/javascript">.*?lng = \'(.*?)\';.*?lat = \'(.*?)\';.*?bname = \'(.*?)\';.*?'
                            'address = \'(.*?)\';.*?price = \'(.*?)\';',re.S)
       item = JiwuItem()
       results = re.findall(pattern,response.text)
       for result in results:
           item['name'] = result[2]
           item['address'] = result[3]
           # 对价格判断只取数字,如果为空就设置为0
           pricestr =result[4]
           pattern2 = re.compile('(\d+)')
           s = re.findall(pattern2,pricestr)
           if len(s) == 0:
               item['price'] = 0
           else:item['price'] = s[0]
           item['lng'] = result[0]
           item['lat'] = result[1]
       yield item

item.py

# -*- coding: utf-8 -*-

# Define here the models for your scraped items
#
# See documentation in:
# http://doc.scrapy.org/en/latest/topics/items.html

import scrapy


class JiwuItem(scrapy.Item):
   # define the fields for your item here like:
   name = scrapy.Field()
   price =scrapy.Field()
   address =scrapy.Field()
   lng = scrapy.Field()
   lat = scrapy.Field()

   pass

pipelines.py 注意此处是吧mongodb的保存方法注释了,可以自选选择保存方式

# -*- coding: utf-8 -*-

# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html
import pymongo
from scrapy.conf import settings
from openpyxl import workbook

class JiwuPipeline(object):
   wb = workbook.Workbook()
   ws = wb.active
   ws.append(['小区名称', '地址', '价格', '经度', '纬度'])
   def __init__(self):
       # 获取数据库连接信息
       host = settings['MONGODB_URL']
       port = settings['MONGODB_PORT']
       dbname = settings['MONGODB_DBNAME']
       client = pymongo.MongoClient(host=host, port=port)

       # 定义数据库
       db = client[dbname]
       self.table = db[settings['MONGODB_TABLE']]

   def process_item(self, item, spider):
       jiwu = dict(item)
       #self.table.insert(jiwu)
       line = [item['name'], item['address'], str(item['price']), item['lng'], item['lat']]
       self.ws.append(line)
       self.wb.save('jiwu.xlsx')

       return item

最后报表的数据

mongodb数据库

地图报表效果图:BDP分享仪表盘,分享可视化效果

https://me.bdp.cn/share/index.html?shareId=sdo_b697418ff7dc4f928bb25e3ac1d52348

Python的爱好者社区历史文章大合集

Python的爱好者社区历史文章列表(每周追加更新一次)

福利:文末扫码立刻关注公众号,“Python爱好者社区”,开始学习Python课程:

关注后在公众号内回复“ 课程 ”即可获取

小编的转行入职数据科学(数据分析挖掘/机器学习方向)【最新免费】

小编的Python的入门免费视频课程

小编的Python的快速上手matplotlib可视化库!

老师崔爬虫实战案例免费学习视频。

老师陈数据分析报告扩展制作免费学习视频。

玩转大数据分析!Spark2.X + Python精华实战课程免费学习视频。

推荐 0
本文由 Python爱好者社区 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。
转载、引用前需联系作者,并署名作者且注明文章出处。
本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

0 个评论

要回复文章请先登录注册