爬虫————requests

本文介绍了如何使用Python requests库进行网页抓取,包括GET请求获取百度首页源码和POST请求实现百度翻译功能。通过实例演示了设置编码和解析返回数据的过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

爬虫————requests

#request 有 GET 和POST请求,必须先知道网页是什么请求
1、
#百度 GET

#如果发现提取的代码是乱码,说明语言不对,找到charset=""
在这里插入图片描述

#request 有 GET 和POST请求,必须先知道网页是什么请求
#爬取百度的源代码
import requests
url="https://www.baidu.com/" #百度的网址
resp=requests.get(url)
resp.encoding="utf-8"
print(resp.text)
resp.close()#关闭请求

2、百度翻译、
post请求在这里插入图片描述

#百度翻译
import requests
url=" https://fanyi.baidu.com/sug"
s=input("输入你想查询的单词")
dict={"kw": s}
resp=requests.post(url,data=dict)
print(resp.json())
resp.close()#关闭请求
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值