一、关于urllib库
网上urllib库的教程文章非常多而且详细具体,我就不过多叙述和重复了,个人更加倾向于将精力放在实战上,而不是反反复复拷贝教程(其实是因为我懒),来几篇干货参考。
python2:
python3:
3.python爬虫从入门到放弃(三)之 Urllib库的基本使用
正则表达式re:
二、思路:
1.打开浏览器,搜狗或者chrome都可以,访问该网站,以爬取最新电影这个栏目的电影为例,我们可以找到这个板块首页的url为:
http://www.ygdy8.com/html/gndy/dyzz/index.html,
再点击下一页,会发现页码的url为
http://www.ygdy8.com/html/gndy/dyzz/list\_23\_2.html,
由此可知,每一页的url为:
http://www.ygdy8.com/html/gndy/dyzz/list\_23\_+**页数**.html
2.在将鼠标移动到电影名字上右键,审查元素,这里易会发现电影详情页的链接为****
[将鼠标移动到末页字眼右键,审查元素,这里会发现总共有167页。
3.根据上面的分析查找,基本可以按照这样的思路进行爬取了。
1.先请求index最新电影板块首页,获取到最大的页数。
2.循环构造页码链接,请求获取所有的带有电影列表的页面。
3.在获取到页面基础上,获得电影列表的所有电影详情页链接,为下一步提取电影的标题,迅雷链接做准备。
三、开始动手
1、构造一个urllib请求页面的opener,尽量模仿浏览器,减少被禁的风险。
1 | 复制代码# -*- coding:utf-8 -*- |
2、构造请求首页,获取最大页码数的方法。
1 | 复制代码# 1、获取最大的页码数 |
3、知道页数后,就可以循环构造链接进行爬取了。
1 | 复制代码#根据页数爬取每页的电影列表 |
4、最后开始爬取并输出到TXT文件上。
1 | 复制代码if __name__ == "__main__": |
四、总结
其实总结起来,简单小规模的爬虫无非就是分析页面—请求页面–获取目标元素–保存等若干步骤,但是真正动起手来,就会遇到各种问题,解决问题也是一个进步的过程。
解决ip被禁有很多种途径,例如使用代理ip,模拟登陆,随机延时请求,本次我是简单粗暴地每隔10页进行随机的延时。
这样我们获取到所有目标电影的详情页链接,下一步就是进行详情页的分析爬取了,这涉及到动态加载页面的爬取,将放到后面几篇分享哈,下一篇,将介绍使用第三方库requests库和xpath匹配爬取详情页链接哟。
)](/html/gndy/dyzz/20171112/55519.html)
本文转载自: 掘金