一、前言
在前面的文章当中,已经教大家如何去获取我们需要的数据原文内容,今天就介绍一个用于提取所需数据的方法之一xpath。在后续会讲解bs4(beautifulsoup),re正则表达式。
二、正文
xpath 使用路径表达式来选取html/ xml 文档中的节点或节点集。节点是通过沿着路径 (path) 或者步 (steps) 来选取的。
使用到python中的一个lxml库:下载 pip install lxml
选取节点
| 表达式 | 描述 |
|---|---|
| nodename | 选取此节点的所有子节点。 |
| / | 从根节点选取(取子节点)。 |
| // | 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置(取子孙节点)。 |
| . | 选取当前节点。 |
| .. | 选取当前节点的父节点。 |
| @ | 选取属性。 |
路径表达式
| 路径表达式 | 结果 |
|---|---|
| bookstore | 选取 bookstore 元素的所有子节点。 |
| /bookstore | 选取根元素 bookstore。注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径! |
| bookstore/book | 选取属于 bookstore 的子元素的所有 book 元素。 |
| //book | 选取所有 book 子元素,而不管它们在文档中的位置。 |
| bookstore//book | 选择属于 bookstore 元素的后代的所有 book 元素,而不管它们位于 bookstore 之下的什么位置。 |
| //@lang | 选取名为 lang 的所有属性。 |
谓语
谓语用来查找某个特定的节点或者包含某个指定的值的节点。
谓语被嵌在方括号中。
| 路径表达式 | 结果 |
|---|---|
| /bookstore/book[1] | 选取属于 bookstore 子元素的第一个 book 元素。 |
| /bookstore/book[last()] | 选取属于 bookstore 子元素的最后一个 book 元素。 |
| /bookstore/book[last()-1] | 选取属于 bookstore 子元素的倒数第二个 book 元素。 |
| /bookstore/book[position()<3] | 选取最前面的两个属于 bookstore 元素的子元素的 book 元素。 |
| //title[@lang] | 选取所有拥有名为 lang 的属性的 title 元素。 |
| //title[@lang='eng'] | 选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性。 |
选取未知节点
| 通配符 | 描述 |
|---|---|
| * | 匹配任何元素节点。 |
| @* | 匹配任何属性节点。 |
| node() | 匹配任何类型的节点。 |
--- 在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:
| 路径表达式 | 结果 |
|---|---|
| /bookstore/* | 选取 bookstore 元素的所有子元素。 |
| //* | 选取文档中的所有元素。 |
| //title[@*] | 选取所有带有属性的 title 元素。 |
选取若干节点
通过在路径表达式中使用"|"运算符,您可以选取若干个路径。
| 路径表达式 | 结果 | |
|---|---|---|
| //book/title | //book/price | 选取 book 元素的所有 title 和 price 元素。 |
| //title | //price | 选取文档中的所有 title 和 price 元素。 |
| /bookstore/book/title | //price | 选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素。 |
三、示例
下面给出一个示例代码
# -*- coding:utf-8 -*-
import requests
from lxml import etree
class douguo(object):
def __init__(self):
self.url = "https://www.douguo.com/caipu/%e5%ae%b6%e5%b8%b8%e8%8f%9c/0/20"
self.headers = {
"user-agent": "mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/108.0.0.0 safari/537.36"
}
def get_data_index(self):
response = requests.get(self.url, headers=self.headers)
response.encoding="utf-8"
if response.status_code == 200:
return response.text
else:
return none
def parse_data_index(self, response):
html = etree.html(response)
data_list = html.xpath('//ul[@class="cook-list"]//li[@class="clearfix"]')
for data in data_list:
# 提取文本值
title = data.xpath("./div/a/text()")[0]
major = data.xpath("./div/p/text()")[0]
# 提取属性值
head = data.xpath("./div/div[2]/a/img/@alt")[0]
score = data.xpath("./div/div[1]//span/text()")[0]
print(f"title: {title}\nmajor: {major}\nhead:{head}\nscore:{score}\n\n")
def run(self):
response = self.get_data_index()
# print(response)
self.parse_data_index(response)
if __name__ == '__main__':
spider = douguo()
spider.run()
四、结语
大家可以尝试去抓取这个url https://cs.lianjia.com/ershoufang/
获取第一页数据即可,同时也可以思考一下,如何进行多页的获取,实现翻页功能。
到此这篇关于python使用xpath对解析内容进行数据提取的文章就介绍到这了,更多相关python xpath数据提取内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!
发表评论