python 使用requests模块爬取数据时中文乱码问题

本文通过实例展示了如何解决Python爬虫在抓取网页数据时遇到的乱码问题。首先,通过查看网页源代码和使用document.charset确定编码格式为'utf-8'。然后,使用requests库获取数据,并通过设置response.encoding为'utf-8'来正确解码内容。此外,还介绍了使用response.apparent_encoding自动分析响应内容编码的方法。文章强调了解决乱码问题在爬虫中的重要性,并鼓励读者尝试不同的解决方案。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

前言

重现问题

1.寻找目标

 2.编写代码

 解决问题

我喜欢的方式

尾声


前言

要想解决乱码问题得先知道我们获取的内容是什么格式的字符编码集

最常用的判断方式是查看网页源代码中的<meta charset="XXX">

第二种方式是在浏览器开发者工具中的控制台中输入document.charset 即可显示出网页的编码格式


重现问题

1.寻找目标

我先找一个会乱码的网站,就以国家统计局吧,先找一个中文字比较多的吧

先查看网页源代码,可以大概判断出是AJAX异步传送的,同时还可以知道该网页是'utf-8'编码的

要是不放心的话,还可以使用document.charset查看一下

 2.编写代码

import requests

url = 'https://data.stats.gov.cn/easyquery.htm?m=QueryData&dbcode=hgnd&rowcode=zb&colcode=sj&wds=%5B%5D&dfwds=%5B%5D&k1=1651977499228&h=1'
headers = {
	'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.4951.54 Safari/537.36 Edg/101.0.1210.39'
}


def solveCoding(url, headers):
	response = requests.get(url=url, headers=headers,verify=False)
	print(response.json())


if __name__ == '__main__':
	solveCoding(url=url, headers=headers)

 可能看的不是特别清楚,我用pprint打印一下吧

 解决问题

from pprint import pprint

import requests

url = 'https://data.stats.gov.cn/easyquery.htm?m=QueryData&dbcode=hgnd&rowcode=zb&colcode=sj&wds=%5B%5D&dfwds=%5B%5D&k1=1651977499228&h=1'
headers = {
	'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.4951.54 Safari/537.36 Edg/101.0.1210.39'
}


def solveCoding(url, headers):
	response = requests.get(url=url, headers=headers,verify=False)
	response.encoding = 'utf-8'
	pprint(response.json())


if __name__ == '__main__':
	solveCoding(url=url, headers=headers)

既然已经知道了该网页是'utf-8'编码的,只需要设置一下对应的字符编码就行了


我喜欢的方式

apparent_encoding

from pprint import pprint

import requests

url = 'https://data.stats.gov.cn/easyquery.htm?m=QueryData&dbcode=hgnd&rowcode=zb&colcode=sj&wds=%5B%5D&dfwds=%5B%5D&k1=1651977499228&h=1'
headers = {
	'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.4951.54 Safari/537.36 Edg/101.0.1210.39'
}


def solveCoding(url, headers):
	response = requests.get(url=url, headers=headers,verify=False)
	response.encoding = response.apparent_encoding
	pprint(response.json())


if __name__ == '__main__':
	solveCoding(url=url, headers=headers)

这个方法呢,我其实不太懂,因为文档给的信息太少了。

但就目前来看,它可以从内容中分析出的响应内容编码,然后自动转换,省时又省力,稳!


尾声

乱码其实是爬虫中很常见的一种问题,解决方式也是多种多样。

如果这篇文章对您有所帮助,那么这篇文章就有意义!


感谢您的观看!

问题: python requests 爬取网页乱码 回答: 当使用Pythonrequests爬取网页时,有时会遇到网页乱码问题。解决这个问题的方法有几种。一种方法是在获取网页内容后,使用response.encoding属性来设置编码格式。例如,可以将response.encoding设置为'utf-8'来解决乱码问题。\[1\] 另一种方法是使用response.apparent_encoding属性来获取网页的实际编码格式,然后将response.encoding设置为该编码格式。这样可以更准确地解决乱码问题。例如,可以使用response.apparent_encoding来获取网页的实际编码格式,然后将response.encoding设置为该编码格式,如response.encoding = response.apparent_encoding。\[2\] 下面是一个示例代码,演示了如何使用requests库解决网页乱码问题: ```python import requests url = 'https://data.stats.gov.cn/easyquery.htm?m=QueryData&dbcode=hgnd&rowcode=zb&colcode=sj&wds=%5B%5D&dfwds=%5B%5D&k1=1651977499228&h=1' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.4951.54 Safari/537.36 Edg/101.0.1210.39' } def solveCoding(url, headers): response = requests.get(url=url, headers=headers, verify=False) response.encoding = response.apparent_encoding print(response.json()) if __name__ == '__main__': solveCoding(url=url, headers=headers) ``` 通过使用上述代码中的方法,你可以解决Python requests爬取网页乱码问题。\[3\] #### 引用[.reference_title] - *1* *2* *3* [python 使用requests模块爬取数据时中文乱码问题](https://blog.csdn.net/weixin_48368715/article/details/124645013)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值