崔庆才的个人博客

爱生活、爱艺术、爱书画、爱音乐、爱设计、爱编程。人生百态,笑口常开,秉承自我,谨慎独行。静觅,静静寻觅生活的美好。个人博客:http://cuiqingcai.com/

7
推荐
4066
阅读

Python爬虫实战五之模拟登录淘宝并获取所有订单

经过多次尝试,模拟登录淘宝终于成功了,实在是不容易,淘宝的登录加密和验证太复杂了,煞费苦心,在此写出来和大家一起分享,希望大家支持。温馨提示现在淘宝换成了滑块验证了,比较难解决这个问题,以下的代码没法用了,仅作学习参考研究之用吧。本篇内容1. python模拟登录淘宝网页2. 获取登录用户的所有订单详情3. 学...

发表了文章 • 2016-11-28 11:09 • 1 条评论

2
推荐
2279
阅读

Python爬虫实战四之抓取淘宝MM照片

本篇目标1.抓取淘宝MM的姓名,头像,年龄2.抓取每一个MM的资料简介以及写真图片3.把每一个MM的写真图片按照文件夹保存到本地4.熟悉文件保存的过程1.URL的格式在这里我们用到的URL是 http://mm.taobao.com/json/request_top_list.htm?page=1,问号前面是基地址,后面的参数page是代表第几页,可以随意更换地址。点击...

发表了文章 • 2016-11-25 14:45 • 1 条评论

4
推荐
1999
阅读

Python爬虫实战三之实现山东大学无线网络掉线自动重连

综述最近山大软件园校区QLSC_STU无线网掉线掉的厉害,连上之后平均十分钟左右掉线一次,很是让人心烦,还能不能愉快地上自习了?能忍吗?反正我是不能忍了,嗯,自己动手,丰衣足食!写个程序解决掉它!假若你不能连这个无线,那就照照思路啦~决战前夕首先我们看一下那个验证页面是咋样滴,上个图先嘿,这界面还算可以...

发表了文章 • 2016-11-25 14:40 • 0 条评论

4
推荐
2405
阅读

Python爬虫实战二之爬取百度贴吧帖子

大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子。与上一篇不同的是,这次我们需要用到文件的相关操作。本篇目标1.对百度贴吧的任意帖子进行抓取2.指定是否只抓取楼主发帖内容3.将抓取到的内容分析并保存到文件1.URL格式的确定首先,我们先观察一下百度贴吧的任意一个帖子。比如...

发表了文章 • 2016-11-24 16:44 • 3 条评论

7
推荐
4065
阅读

Python爬虫实战一之爬取糗事百科段子

首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把,这次我们尝试一下用爬虫把他们抓取下来。友情提示糗事百科在前一段时间进行了改版,导致之前的代码没法用了,会导致无法输出和CPU占用过高的情况,是因为正则表达式没有匹配到的缘故。现在,博主已经对程序进行了重新修改,代码亲测可用,包括截图和说明...

发表了文章 • 2016-11-24 16:32 • 5 条评论