Xpath教程

1 前言

本来是不打算学Xpath的,个人觉得BeautifulSoup()完全能够满足自己的爬虫需求了。但是在学Selenium是时候教程用的是Xpath,加上之前身边的小伙伴也一直在给自己安利Xpath,索性就了解一下。

2 Xpath语法

2.1 简介

XPath 是一门在 XML 文档中查找信息的语言。XPath 可用来在 XML 文档中对元素和属性进行遍历。结构关系包括 父、子、兄弟、先辈、后代等。

2.2 语法

示例代码:

这是一个解析后的HTML文件的一部分
<bookstore>
	<book>
  		<title>Harry Potter</title>
  		<author>J K. Rowling</author>
  		<year>2018</year>
  		<price>29.99</price>
	</book>
</bookstore>

语法示例:

result = html.xpath('/bookstore/book/title')
>输出:<title>Harry Potter</title>
result = html.xpath('/bookstore//title')
>输出:<title>Harry Potter</title>
result = html.xpath('/bookstore/book/title/text()')
>输出:Harry Potter

2.3 结点获取

XPath 使用路径表达式在 XML 文档中选取节点。节点是通过沿着路径或者 step 来选取的。

下面列出了最有用的路径表达式:

表达式描述
nodename选取此节点的所有子节点。
/从根节点选取。
//从选择的父节点中查找,不考虑它们的位置。
.选取当前节点。
选取当前节点的父节点。
@选取属性。

实例
在下面的表格中,我们已列出了一些路径表达式以及表达式的结果:

路径表达式结果
bookstore选取 bookstore 元素的所有子节点。
/bookstore选取根元素 bookstore。注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径!
bookstore/book选取属于 bookstore 的子元素的所有 book 元素。
//book选取所有 book 子元素,而不管它们在文档中的位置。
bookstore//book选择属于 bookstore 元素的后代的所有 book 元素,而不管它们位于
//@lang选取名为 lang 的所有属性。

谓语(Predicates)
谓语用来查找某个特定的节点或者包含某个指定的值的节点。
谓语被嵌在方括号中。

实例
在下面的表格中,我们列出了带有谓语的一些路径表达式,以及表达式的结果:

路径表达式结果
/bookstore/book[1]选取属于 bookstore 子元素的第一个 book 元素。
/bookstore/book[last()]选取属于 bookstore 子元素的最后一个 book 元素。
/bookstore/book[last()-1]选取属于 bookstore 子元素的倒数第二个 book 元素。
/bookstore/book[position()< 3 ]选取最前面的两个属于 bookstore 元素的子元素的 book 元素。
//title[@lang]选取所有拥有名为 lang 的属性的 title 元素。
//title[@lang=’eng’]选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性。
/bookstore/book[price>35.00]选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00。
/bookstore/book[price>35.00]/title选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00。

选取未知节点
XPath 通配符可用来选取未知的 XML 元素。

通配符描述
*匹配任何元素节点。
@*匹配任何属性节点。
node()匹配任何类型的节点。

实例
在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:

路径表达式结果
/bookstore/*选取 bookstore 元素的所有子元素。
//*选取文档中的所有元素。
//title[@*]选取所有带有属性的 title 元素。

选取若干路径
通过在路径表达式中使用“|”运算符,您可以选取若干个路径。
实例
在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果,由于博客书写原因,在表中我把“|”换成了“~”:

路径表达式结果
//book/title ~ //book/price选取 book 元素的所有 title 和 price 元素。
//title ~ //price选取文档中的所有 title 和 price 元素。
/bookstore/book/title ~ //price选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素。

2.4 选择当前结点的子节点

在使用Xpath的过程中都会遇到这样一种情况:在指定结点下选择子节点,我们先看一下以下代码:

node = html.xpath("//ul[@class='note-list']/li//div[@class='content']")
node1 = node.xpath("//a[@class='title']")

我想在获取父节点node下的a结点,代码看似很完美没有任何错误。先找到父节点node,随后再父节点的基础上进行进一步定位,获取子节点node1(即class=‘title’的a节点)。但是当你看运行结果,就会发现你得到的是整个网页中的符合要求的所有a结点。

仔细想一下,你会发现//a[@class='title']是在整个网页中寻找合适的节点,.//a[@class='title']才是在父节点node下寻找结点,.代表当前结点。正确的代码如下:

node = html.xpath("//ul[@class='note-list']/li//div[@class='content']")
node1 = node.xpath(".//a[@class='title']")

2.5 输出网页源码

在编写爬虫的过程中我们难免会出现定位错误,这时,解决问题最好方法就是把我们定位到结点输出来。问题来了

title = node.xpath(".//a[@class='title']")[0]
print(title)

输出:
<Element a at 0x2747fa39f48>

我们将定位的结点输出了,看不懂啊,在这里我们能看出来的只有这是一个a标签。怎么办呢,我们可以选择将这个Xpath对象还原成字符串对象

title = node.xpath(".//a[@class='title']")[0]
title = etree.tostring(title)
print(title)

输出:
<a class="title" target="_blank" href="/p/64fe5d8428fb">家乡的小炒肉</a>

2.6 Xpath与爬虫的交点

与Xpath搭配的常用解析方法是:etree.HTML()

from lxml import etree
#发送请求
req = requests.get(oneBlogUrl, timeout=10)
#校正网页编码
req.encoding = req.apparent_encoding
#解析网页
html = etree.HTML(req.text)

在解析过后就可以直接上Xpath了

article_list = html.xpath("/bookstore/book/title/text()")

与BeautifulSoup中的find()/find_all()方法相比,在用find_all()查找到标签后存放的形式是列表,需要在for循环中才能继续调用find()方法。这一点上Xpath是比BeautifulSoup较方便的,Xpath可以一步到位。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

K同学啊

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值