Scrapy爬简书30日热门 —— 总是套路留人心

浏览: 1582

Scrapy 第一篇:单层次页面爬取 | 结巴分词

最近刚接触Scrapy基础,不太适应(主要是各种设置和之前不太一样)。不过其分块思维吸引人,编写逻辑清晰,抓取速度也快。

今天爬了简书30天热门的标题,简单做了个词频统计(想看分析的直接跳到后面吧~)
过程比较简单就不详细叙述。

一、记录一下出现的问题

1、 首先是Scrapy出现Crawled (403)


猜想可能是爬虫被发现了,改了下User_agent可以运行



Scrapy爬虫防止被"ban"的几种方法:
(下面这篇博文讲得很透彻)
http://www.cnblogs.com/rwxwsblog/p/4575894.html?utm_source=tuicool&utm_medium=referral

2、其次是jieba分词这一块出了问题


查了资料终于解决,原来是.pyc文件问题。
脚本每次运行时均会生成.pyc文件;在已经生成.pyc文件的情况下,若代码不更新,运行时依旧会走pyc。

所以解决办法就是要删除jieba库里面的.pyc文件,重新运行代码。同时命名脚本时,不要与py预留字、模块名等相同。对其它库亦是一样的。

3、然后做词云图的过程
最先用的是tagxedo(http://www.tagxedo.com/app.html) 结果上传字体的时候插件崩溃了,不知道什么原因。最初还以为是字体太了上传不了,换成小的也是不行。然后又重装了Silverlight,又崩了。又以为是权限的问题,改了一通,木得用。
(难办,求有经验的盆友支支招~)


最后换成了wordart,可以上传字体(哎宝宝还是想试试tagxedo>_<)。

4、用几乎相同的方式获取“首页投稿”专题里的文章的标题,结果又返回403,添了User_agent ,改了相关的setting,加了Cookies,还是不行


猜测数据隐藏在JS里面了,逛知乎发现一帖子,也是这个问题
https://www.zhihu.com/question/52165621
心有余而力不足啊~~~(唉,暂且搁置)

二、来看结果

用的jieba 来分词


用语料库在线(http://www.cncorpus.org/CpsTongji.aspx) 统计词频



词云用wordart(https://wordart.com/ 就是之前的TaGul )。

一起来看结果:


隔着屏幕都闻到一股浓浓的鸡汤味呀~^_^

用图上的高频词汇,

总结简书30日热门套路

版本(一):

一生有几个10岁,喜欢自己特别努力的样子

版本(二):

喜欢一个人是一种什么体验,为什么特别努力还是。。。



这第二个,,,

特么忙了半天原来给自己挖了个坑

我是有多无聊。。。不说了,去哭会~

image.png

关于词云图,下面几位老师总结得非常好:
http://www.jianshu.com/p/6a285dfa3d87
http://www.jianshu.com/p/4fb27471295f
http://www.jianshu.com/p/deae3b925cf3

本篇就是这样了~

推荐 1
本文由 waking_up88688 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。
转载、引用前需联系作者,并署名作者且注明文章出处。
本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

0 个评论

要回复文章请先登录注册