10.30课后作业——爬取CSDN博客http://blog.csdn.net/首页显示的所有文章(python数据挖掘课程)

浏览: 1580

1、方法一:for循环里添加报头伪装成浏览器爬取

import urllib.request

import re

import urllib.error

url="http://blog.csdn.net/"

#设置报头,chrome浏览器伪装

headers=("User-Agent","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36\

(KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36")

#添加报头

opener=urllib.request.build_opener()

opener.addheaders=[headers]

#读取url

data=opener.open(url).read()

#解码

data=data.decode("utf-8","ignore")

#正则

pat='<h3  class="tracking-ad" data-mod="popu_254"><a href="https://ask.hellobi.com/(.*?)"'

allurl=re.compile(pat).findall(data)

for i in range(0,len(allurl)):

         try:#异常处理

                  print("第"+str(i)+"次爬取")

                  thisurl=allurl[i]

                  #添加报头、读取url

                  opener1=urllib.request.build_opener()

                  opener1.addheaders=[headers]

                  data2=opener.open(thisurl).read()

                  #打开文件,赋给句柄

                  fh=open("D:/Program Files/Python33/xuexi/CSDN/"+str(i)+".html","wb")

                  fh.write(data2)

                  fh.close()

                  print("-----------成功------------")

         except urllib.error.URLError as e:  

                  if hasattr(e,"code"):      

                           print(e.code)

                  if hasattr(e,"reason"):

                           print(e.reason)

2、方法二(韦玮老师讲解):opener设置为全局

import urllib.request

import re

url="http://blog.csdn.net/"

#设置报头

headers=("User-Agent","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36\

(KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36")

#添加报头

opener=urllib.request.build_opener()

opener.addheaders=[headers]

#opener设置为全局

urllib.request.install_opener(opener)

#读取url

data=urllib.request.urlopen(url).read().decode("utf-8","ignore")

data=opener.open(url).read()

#解码

data=data.decode("utf-8","ignore")

#正则

pat='<h3  class="tracking-ad" data-mod="popu_254"><a href="https://ask.hellobi.com/(.*?)"'

allurl=re.compile(pat).findall(data)

for i in range(0,len(allurl)):

#异常处理

         try:

                  print("第"+str(i)+"次爬取")

                  thisurl=allurl[i]

                  file="D:/Program Files/Python33/xuexi/CSDN/"+str(i)+".html"

                  urllib.request.urlretrieve(thisurl,file)

                  print("-----------成功------------")

         except urllib.error.URLError as e:  

                  if hasattr(e,"code"):      

                           print(e.code)

                  if hasattr(e,"reason"):

                           print(e.reason)

运行如下:

Clipboard Image.png

保存文件

Clipboard Image.png

推荐 2
本文由 郭燕君 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。
转载、引用前需联系作者,并署名作者且注明文章出处。
本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

1 个评论

很不错

要回复文章请先登录注册