预备阅读:Python中Requests库的用法 Python中Beautiful Soup的用法
前言
最近学习了北京理工大学崇天老师的Python爬虫课程,老师讲了一个实现“中国大学排名定向爬虫”的实例,这里想自己实现一下,并分享给大家。
2016年中国最好大学排名:http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html
功能描述
输入:大学排名URL链接
输出:大学排名信息的屏幕输出(排名,大学名称,总分)
技术路线:requests‐bs4
定向爬虫:仅对输入URL进行爬取,不扩展爬取
定向爬虫的可行性
对于定向爬虫,我们不能暴力爬取数据,而是要遵循网站的robots协议,一般robots协议都在网站根目录下,直接输入类似http://www.zuihaodaxue.cn/robots.txt的URL链接地址即可查看,robots协议告诉我们,哪些内容是可以抓取的,哪些内容是不可以抓取的,这也是为了维护网络的安全环境。
程序的结构设计
步骤1:从网络上获取大学排名网页内容 getHTMLText()
步骤2:提取网页内容中信息到合适的数据结构 fillUnivList()
步骤3:利用数据结构展示并输出结果 printUnivList()
首先我们看一下main()函数,这里的main函数和C语言中的类似,我们定义了一个个功能函数,最后在main函数里直接调用。
import requests
from bs4 import BeautifulSoup
def getHTMLText():
return ""
def fillUnivList():
pass
def printUnivList():
print("Suc" + str(num))
def main():
uinfo = []
url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html'
html = getHTMLText(url)
fillUnivList(uinfo, html)
printUnivList(uinfo, 20)#输出20个大学
main()
上面是一个简单的函数汇总,下面看分解函数:
getHTMLText()
url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html'
def getHTMLText(url):
try:
r = requests.get(url, timeout = 30)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
except:
return ""
fillUnivList()
import bs4
def fillUnivList(ulist, html):
soup = BeautifulSoup(html, "html.parser")
for tr in soup.find('tbody').children:
if isinstance(tr, bs4.element.Tag):
tds = tr('td')
ulist.append([tds[0].string, tds[1].string, tds[3].string])
printUnivList()
def printUnivList(ulist, num):
print("{:^10}\t{:^6}\t{:^10}".format("排名", "学习名称", "总分"))
for i in range(num):
u = ulist[i]
print("{:^10}\t{:^6}\t{:^10}".format(u[0], u[1], u[2]))
看一下展示结果
实例优化
从上面的结果可以看出,输出的结果中文没有对齐,我们来解决一下这个问题。这里我们设置一下,当中文字符宽度不够时,采用西文字符填充;中西文字符占用宽度不同。采用中文字符的空格填充 chr(12288)。
def printUnivList(ulist, num):
print("{:^10}\t{:^6}\t{:^10}".format("排名", "学习名称", "总分", chr(12288)))
for i in range(num):
u = ulist[i]
print("{:^10}\t{:^6}\t{:^10}".format(u[0], u[1], u[2], chr(12288)))
下面看一下运行结果,发现学校和分数都很整齐。
下面请看全代码:
#spider_univ.py
import requests
from bs4 import BeautifulSoup
import bs4
def getHTMLText(url):
try:
r = requests.get(url, timeout=30)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
except:
return ""
def fillUnivList(ulist, html):
soup = BeautifulSoup(html, "html.parser")
for tr in soup.find('tbody').children:
if isinstance(tr, bs4.element.Tag):
tds = tr('td')
ulist.append([tds[0].string, tds[1].string, tds[3].string])
def printUnivList(ulist, num):
tplt = "{0:^10}\t{1:{3}^10}\t{2:^10}"
print(tplt.format("排名","学校名称","总分",chr(12288)))
for i in range(num):
u=ulist[i]
print(tplt.format(u[0],u[1],u[2],chr(12288)))
def main():
uinfo = []
url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html'
html = getHTMLText(url)
fillUnivList(uinfo, html)
printUnivList(uinfo, 20) # 输出前20个大学
main()
小结
这里我们同时用到了前面学习的requests和BeautifulSoup库,加深我们对之前知识的了解,
增加我们的学习乐趣,同时对中英文混排输出问题进行优化,提高问题解决能力,这也是很好哒。
希望通过上面的内容能帮助大家深刻理解和学习Python爬虫。如果你有什么好的意见,建议,或者有不同的看法,我都希望你留言和我们进行交流、讨论。
如果想快速联系我,欢迎关注微信公众号:AiryData。