python爬虫遇到403如何解决?

0

代码如图。
尝试了requests和urllib,返回403后加了headers,但仍报错为403。
请问下各位该如何解决呢?
WechatIMG104.png


 
已邀请:
0

许胜利 - 一个圣骑士成熟的标志是不再向盲人解释阳光。 1 天前 回答

并不是加了User-Agent就可以使对方网站认定为你是正常访问,特殊的网站会有别的反爬机制,你可以看下是不是有加了反外链。

要回复问题请先登录注册