python爬虫精品妹纸图老司机开车必备

本文详细介绍如何使用Python的requests库进行网页请求,通过正则表达式解析HTML获取图片链接,并下载图片到本地指定目录。文章包括环境配置、代码实现及异常处理等内容。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

@TOC
这个需要安装一个requests库,可以采用pip install requests安装

# -*- coding: utf-8 -*-
import requests
import re
import os
headers={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}

url = r'https://wwv.9wm9.site/viewforum.php?f=29'
r = r'<a href="\..*?&amp;(.*?)" class="'
response = requests.get(url,headers=headers)
res = response.text
g = re.findall(r,res)
#print(g)

i = 0
urllist = []
while i< len(g):
    urllist.append(r'https://wwv.9wm9.site/viewtopic.php?f=29&'+str(g[i]))
    i = i + 1
#print(urllist)

if not os.path.exists('d:\\pic'):
        os.mkdir('d:\\pic')
os.chdir('d:\\pic')
j = 0
m = 0
while j< len(urllist):
    #print(urllist[j])
    url = urllist[j]
    r = r'<img src="(.*?)" class="postimage" alt="圖檔"><br>'
    response = requests.get(url,headers=headers)
    res = response.text
    g = re.findall(r,res)
    #print(g)
    while m <len(g):
        url = g[m]
        try:
            response = requests.get(url,headers=headers)
            rcontent = response.content
            with open(str(j)+str(m)+'.jpg','wb') as f:
                f.write(rcontent)
        except:
            print('网络连接错误下载失败')
        print(g[m])
        m = m+1
    j = j + 1

这个是源码,刚开始学习,如有不妥,请联系删除。仅供学习用,不能加入其它用途
违者必究

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值