mode在python中的意思_mode初识

本文详细介绍了Python中文件操作的不同模式,包括只读模式(r)、二进制只读(rb)、写入模式(w)、二进制写入(wb)、读写混合模式(r+和w+)。每种模式的特点及使用场景都有具体说明,并提供了如何使用这些模式来读取或修改文件内容的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

python文件操作中经常用到的几种mode:r , rb ,w , wb , r+ , w+.

if mode = r ,意思是说,当前这个文件只能以“只读”模式打开,不能对文件内容进行操作。

显示内容为原文件内容。比如,你文件里面是中文内容,那么显示还是中文的。如果是英文的,显示还英文的。

if mode = rb ,意思是说,当前这个文件只能以“只读”模式打开,而且,打开后的内容是以二进制方式显示,也就是机器语言显示。

这种模式显示的内容为机器语言,即二进制、八进制、十六进制等编码,而不是原文件内容。

if mode = w ,意思是说,当前文件只能以“写入”模式打开的,可以对文件进行操作,比如增加内容、修改内容等。

这种模式的文件,可以对其进行写入操作,f.write("i want  you. ').然后,print(f.read()),结果就能能看见你刚才输入进去的“i want you.”

if mode = wb ,意思是说,当前文件只能以二进制方式写入。

在这种模式下,你要对文件进行操作,必须以二进制模式输入,比如要写入“i  want you .”的话,你必须先把这句话转换成二进制,然后才能写进去。f,write("转换后的二进制码").

if mode = r+, 意思是说,当前文件操作模式为:读写混合型的,先读后写。

这是一种读和写都可以的混合模式,但是和w+模式油油区别,这个是先读已有文件内容,写入的内容都会在原文件末尾。等等

if mode = w+, 意思是说,当前文件的操作模式为:写读混合型的,先写后读。

这种模式和上面的一样,输入混合模式,但是读出的结果不同。这里只会读到你刚刚输入的内容,而之前的内容相当于被替换了。这个方法用的时候一定要注意,因为容易造成原文件内容丢失。

写入文件时,经常用到几个方法:一个是f.tell(),返回光标位置,一个是f.seek(),返回你要指定定的光标位置。还有f.truncate(),返回截断后的内容,如果参数为1,那会返回第1个字符之后的内容。等等。

上面的写的估计有些问题,有待重新修改补充。

### Python 网络爬虫基础教程 #### 初识爬虫 网络爬虫是一种按照特定规则自动请求万维网网站并提取数据的程序或脚本[^1]。这种工具可以替代人工收集信息,能更高效地获取和利用互联网上的公开数据。 #### 爬虫的工作原理和技术 为了理解如何构建一个简单的爬虫,了解其工作流程至关重要。通常情况下,爬虫会从给定的一个或多个起始URL出发,通过HTTP/HTTPS协议向服务器发送请求来获取网页内容;接着分析这些HTML文档以找到链接和其他感兴趣的数据项,并重复上述过程直至达到预设的目标数量或其他终止条件[^3]。 #### 实现第一个简单爬虫实例 下面是一个非常基本的例子,展示了怎样使用`requests`库发起GET请求并打印响应体: ```python import requests url = 'http://example.com' response = requests.get(url) print(response.text) ``` 这段代码实现了最基本的网页抓取功能——访问指定网址并将返回的内容显示出来。对于更加复杂的场景,则可能涉及到更多的技术和方法论,比如处理JavaScript渲染后的动态加载内容、模拟登录状态等高级特性。 #### 数据解析技巧 当获得了完整的HTML源码之后,下一步就是从中抽取出有用的信息点了。这里推荐采用BeautifulSoup这样的第三方库来进行DOM树结构化操作,方便定位标签节点及其属性值: ```python from bs4 import BeautifulSoup soup = BeautifulSoup(html_content, 'html.parser') titles = soup.find_all('h2') # 获取所有的<h2>标题元素列表 for title in titles: print(title.string.strip()) ``` 此片段示范了如何查找页面内的所有二级标题(<h2>) 并逐个输出它们的文字部分。 #### 存储所获数据 最后一步是要考虑怎么保存下来已经抓到手的数据。最常见的方式莫过于写入文件系统或是数据库管理系统之中去了。例如CSV格式非常适合用来记录表格型别的资料集: ```python import csv with open('data.csv', mode='w', newline='', encoding='utf-8') as file: writer = csv.writer(file) for item in items_list: writer.writerow([item['name'], item['price']]) ``` 以上仅是对Python编写网络爬虫所需掌握基础知识的一部分概括介绍而已。如果想要深入学习更多有关于Scrapy框架的应用实践等内容的话,《解析Python网络爬虫核心技术》这本书籍提供了详尽指导。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值