自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 使用 nodemon 运行项目时,报错 > nodemon : 无法加载文件

使用 nodemon 运行项目时,报错 > nodemon : 无法加载文件 nodemon : 无法加载文件 C:\Users\xxxx\AppData\Roaming\npm\nodemon.ps1,因为在此系统上禁止运行脚本。有关详细信息,请参阅 https:/go.microsoft.com/fwlink/?LinkID=135170 中的 about_Execution_Polic ies。 所在位置 行:1 字符: 1 + nodemon xxx.js + ~~~~~~~ + Ca

2023-02-21 04:53:09 248

原创 关于在cmd中执行node -v 返回版本号和自己安装的node.js 版本号不一致问题

nodejs执行 node -v 返回与安装版本号不一致问题

2022-04-20 20:27:23 2070

原创 数据存储——学习笔记

一、文件存储 TXT文件存储 打开方式 模式 说明 r 以只读模式打开文件。文件的指针将会放在文件开头。这是默认模式 rb 以二进制只读方式打开文件。文件的指针会放在文件开头。 r+ 以读写方式打开文件。文件的指针将会放在文件开头。 rb+ 以二进制读写方式打开文件。文件指针将会放在文件的开头。 w 以写入的模式打开文件。如果该文件已存在,则将其覆盖。如果该文件不存在则创建新文件。 wb 以二进制写入模式打开文件。如果文件已存在,则将其覆盖。如果该文件不存在,则创建新文件

2021-02-25 14:25:05 1585

原创 解析库的使用——学习笔记

一、XPath 全称:XML Path Language,即XML路径语言。 1、XPath概念 XPath提供了非常简洁明了的路径选择表达式。还提供了100个内键函数,用于字符串、数值、时间的匹配以及节点、序列的处理等。 2、XPath常用规则 XPath常用规则 表达式 描述 nodename 选取此节点的所有子节点 / 从当前节点选取直接子节点 // 从当前节点选择子孙节点 . 选取当前节点 … 选取当前节点的父节点 @ 选取属性 举例: //title[@la

2021-02-16 16:32:06 732

原创 正则表达式(Python re模块)——学习笔记

正则表达式 正则表达式是处理字符串的强大工具, 一、实例引入 进入网站http://tool.oschina.net/regex/ 输入待匹配的文本:Hello, my phone number is 010-86432100 and email is [email protected] 输入正则表达式: [a-zA-Z]+://[^\s]* 在网页右边选择“匹配Email地址”,就可以看到下方出现了文本中的 E-mail。 对于URL来说,就可以使用下面的正则表达式去匹配 [a-zA-Z]+://[^

2021-02-11 08:05:10 310

原创 爬虫request库的使用——学习笔记

使用requests 一、基本用法 1、准备工作 安装request库。 pip install request 2、实例引入 request库中以GET方式请求网页的方法就是get()方法 import requests r = requests.get('https://www.baidu.com/') print(type(r)) print(r.status_code) print(type(r.text)) print(r.text) print(r.cookies) ''' 运行结果: &

2021-02-07 19:12:09 2418

原创 爬虫urllib库的基本使用——学习笔记

一、使用urllib urllib库的四大模块: urllib.request:最基本的HTTP请求模块,可以用来模拟请求 urllib.error:异常处理模块 urllib.parse:一个工具模块,提供了许多URL处理方法,比如拆分、解析、合并等 urllib.robotparser:用来识别网站的robots.txt文件 (1)发送请求 1、urlopen() import urllib.request response = urlib.request.urlopen("https://www

2021-01-31 23:49:56 1112

原创 HTTP基本原理、爬虫的基本原理、会话和Cookie——学习笔记

一、URI 和 URL URI:统一资源标志符 URL:统一资源定位符 URN:统一资源名称 URI = URL + URN 二、超文本 pass 三、HTTP 和 HTTPS HTTP:超文本传输协议;用于从网络传输超文本数据到本地浏览器的协议 HTTPS:是HTTP协议的安全版,即HTTP下加入SSL层。通过HTTPS传输的内容都是经过SSL加的 四、HTTP请求过程 浏览器向网站所在服务器发送请求,网站服务器接收到请求后对请求进行处理和解析,然后返 回对应的的响应,接着将响应传回给浏览器。 响应里包含

2021-01-30 07:47:06 221

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除