使用Python requests和BeautifulSoup库爬取去哪儿网

功能说明:爬取去哪儿网城市下面若干条景点详细信息并将数据导入Excel表(使用xlwt库)

爬取去哪儿网的教程参考自 https://blog.csdn.net/gscsd_t/article/details/80836613

xlwt库使用方法参考自: https://my.oschina.net/dddttttt/blog/466103

第一次学爬虫,代码可能写得不太好,注释比较详细,勉强能看吧.... 

爬取景点的程序大致是参考上面教程的,只不过我自己增加了一些爬取的数据,改了下爬取范围,然后那个教程里面是把爬取的数据写到mysql数据库里,我这里是写到excel表格中。

上面教程已经把爬虫过程说的比较清楚了,这里再简单叙述一遍补充下,顺便加深下印象(下面是爬取结果)

 

 上图:去哪儿网北京景点截图

 

上图:爬取结果(表格的样式是我为了好看手动加的,代码里并没有,要想有的话可以用xlwt来设置)  

下面开始教程。

 

先去http://piao.qunar.com/ticke

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值