关于Python3爬虫中Selector的用法-创新互联
创新互联www.cdcxhl.cn八线动态BGP香港云服务器提供商,新人活动买多久送多久,划算不套路!
创新互联专注于富锦企业网站建设,成都响应式网站建设公司,成都做商城网站。富锦网站建设公司,为富锦等地区提供建站服务。全流程按需开发,专业设计,全程项目跟踪,创新互联专业和态度为您提供的服务小编给大家分享一下关于Python3爬虫中Selector的用法,相信大部分人都还不怎么了解,因此分享这篇文章给大家学习,希望大家阅读完这篇文章后大所收获,下面让我们一起去学习方法吧!
Selector 的用法
我们之前介绍了利用 Beautiful Soup、pyquery 以及正则表达式来提取网页数据,这确实非常方便。而 Scrapy 还提供了自己的数据提取方法,即 Selector(选择器)。Selector 是基于 lxml 来构建的,支持 XPath 选择器、CSS 选择器以及正则表达式,功能全面,解析速度和准确度非常高。
本节将介绍 Selector 的用法。
1. 直接使用
Selector 是一个可以独立使用的模块。我们可以直接利用 Selector 这个类来构建一个选择器对象,然后调用它的相关方法如 xpath()、css() 等来提取数据。
例如,针对一段 HTML 代码,我们可以用如下方式构建 Selector 对象来提取数据:
from scrapy import Selector body = 'Hello World ' selector = Selector(text=body) title = selector.xpath('//title/text()').extract_first() print(title)
运行结果:
Hello World
我们在这里没有在 Scrapy 框架中运行,而是把 Scrapy 中的 Selector 单独拿出来使用了,构建的时候传入 text 参数,就生成了一个 Selector 选择器对象,然后就可以像前面我们所用的 Scrapy 中的解析方式一样,调用 xpath()、css() 等方法来提取了。
在这里我们查找的是源代码中的 title 中的文本,在 XPath 选择器最后加 text() 方法就可以实现文本的提取了。
以上内容就是 Selector 的直接使用方式。同 Beautiful Soup 等库类似,Selector 其实也是强大的网页解析库。如果方便的话,我们也可以在其他项目中直接使用 Selector 来提取数据。
接下来,我们用实例来详细讲解 Selector 的用法。
2. Scrapy Shell
由于 Selector 主要是与 Scrapy 结合使用,如 Scrapy 的回调函数中的参数 response 直接调用 xpath() 或者 css() 方法来提取数据,所以在这里我们借助 Scrapy shell 来模拟 Scrapy 请求的过程,来讲解相关的提取方法。
我们用官方文档的一个样例页面来做演示:http://doc.scrapy.org/en/latest/_static/selectors-sample1.html。
开启 Scrapy shell,在命令行输入如下命令:
scrapy shell http://doc.scrapy.org/en/latest/_static/selectors-sample1.html
我们就进入到 Scrapy shell 模式。这个过程其实是,Scrapy 发起了一次请求,请求的 URL 就是刚才命令行下输入的 URL,然后把一些可操作的变量传递给我们,如 request、response 等,如图 13-5 所示。
图 13-5 Scrapy Shell
我们可以在命令行模式下输入命令调用对象的一些操作方法,回车之后实时显示结果。这与 Python 的命令行交互模式是类似的。
接下来,演示的实例都将页面的源码作为分析目标,页面源码如下所示:
Example website
3. XPath 选择器
进入 Scrapy shell 之后,我们将主要操作 response 这个变量来进行解析。因为我们解析的是 HTML 代码,Selector 将自动使用 HTML 语法来分析。
response 有一个属性 selector,我们调用 response.selector 返回的内容就相当于用 response 的 text 构造了一个 Selector 对象。通过这个 Selector 对象我们可以调用解析方法如 xpath()、css() 等,通过向方法传入 XPath 或 CSS 选择器参数就可以实现信息的提取。
我们用一个实例感受一下,如下所示:
>>> result = response.selector.xpath('//a') >>> result [Name: My image 1 <'>, Name: My image 2 <'>, Name: My image 3 <'>, Name: My image 4 <'>, Name: My image 5 <'>] >>> type(result) scrapy.selector.unified.SelectorList
打印结果的形式是 Selector 组成的列表,其实它是 SelectorList 类型,SelectorList 和 Selector 都可以继续调用 xpath() 和 css() 等方法来进一步提取数据。
在上面的例子中,我们提取了 a 节点。接下来,我们尝试继续调用 xpath() 方法来提取 a 节点内包含的 img 节点,如下所示:
>>> result.xpath('./img') ['>, '>, '>, '>, '>]
我们获得了 a 节点里面的所有 img 节点,结果为 5。
值得注意的是,选择器的最前方加 .(点),这代表提取元素内部的数据,如果没有加点,则代表从根节点开始提取。此处我们用了./img 的提取方式,则代表从 a 节点里进行提取。如果此处我们用 //img,则还是从 html 节点里进行提取。
我们刚才使用了 response.selector.xpath() 方法对数据进行了提取。Scrapy 提供了两个实用的快捷方法,response.xpath() 和 response.css(),它们二者的功能完全等同于 response.selector.xpath() 和 response.selector.css()。方便起见,后面我们统一直接调用 response 的 xpath() 和 css() 方法进行选择。
现在我们得到的是 SelectorList 类型的变量,该变量是由 Selector 对象组成的列表。我们可以用索引单独取出其中某个 Selector 元素,如下所示:
>>> result[0]Name: My image 1 <'>
我们可以像操作列表一样操作这个 SelectorList。
但是现在获取的内容是 Selector 或者 SelectorList 类型,并不是真正的文本内容。那么具体的内容怎么提取呢?
比如我们现在想提取出 a 节点元素,就可以利用 extract() 方法,如下所示:
>>> result.extract() ['Name: My image 1
', 'Name: My image 2
', 'Name: My image 3
', 'Name: My image 4
', 'Name: My image 5
']
这里使用了 extract() 方法,我们就可以把真实需要的内容获取下来。
我们还可以改写 XPath 表达式,来选取节点的内部文本和属性,如下所示:
>>> response.xpath('//a/text()').extract() ['Name: My image 1 ', 'Name: My image 2 ', 'Name: My image 3 ', 'Name: My image 4 ', 'Name: My image 5 '] >>> response.xpath('//a/@href').extract() ['image1.html', 'image2.html', 'image3.html', 'image4.html', 'image5.html']
我们只需要再加一层 /text() 就可以获取节点的内部文本,或者加一层 /@href 就可以获取节点的 href 属性。其中,@符号后面内容就是要获取的属性名称。
现在我们可以用一个规则把所有符合要求的节点都获取下来,返回的类型是列表类型。
但是这里有一个问题:如果符合要求的节点只有一个,那么返回的结果会是什么呢?我们再用一个实例来感受一下,如下所示:
>>> response.xpath('//a[@href="image1.html"]/text()').extract() ['Name: My image 1 ']
我们用属性限制了匹配的范围,使 XPath 只可以匹配到一个元素。然后用 extract() 方法提取结果,其结果还是一个列表形式,其文本是列表的第一个元素。但很多情况下,我们其实想要的数据就是第一个元素内容,这里我们通过加一个索引来获取,如下所示:
python>>> response.xpath('//a[@href="image1.html"]/text()').extract()[0] 'Name: My image 1 '
但是,这个写法很明显是有风险的。一旦 XPath 有问题,那么 extract() 后的结果可能是一个空列表。如果我们再用索引来获取, 那不就会可能导致数组越界吗? 所以,另外一个方法可以专门提取单个元素,它叫作 extract_first()。我们可以改写上面的例子如下所示: ```python >>> response.xpath('//a[@href="image1.html"]/text()').extract_first() 'Name: My image 1 '
这样,我们直接利用 extract_first() 方法将匹配的第一个结果提取出来,同时我们也不用担心数组越界的问题。
另外我们也可以为 extract_first() 方法设置一个默认值参数,这样当 XPath 规则提取不到内容时会直接使用默认值。例如将 XPath 改成一个不存在的规则,重新执行代码,如下所示:
>>> response.xpath('//a[@href="image1"]/text()').extract_first()>>> response.xpath('//a[@href="image1"]/text()'). extract_first('Default Image') 'Default Image'
这里,如果 XPath 匹配不到任何元素,调用 extract_first() 会返回空,也不会报错。
在第二行代码中,我们还传递了一个参数当作默认值,如 Default Image。这样如果 XPath 匹配不到结果的话,返回值会使用这个参数来代替,可以看到输出正是如此。
现在为止,我们了解了 Scrapy 中的 XPath 的相关用法,包括嵌套查询、提取内容、提取单个内容、获取文本和属性等。
4. CSS 选择器
接下来,我们看看 CSS 选择器的用法。
Scrapy 的选择器同时还对接了 CSS 选择器,使用 response.css() 方法可以使用 CSS 选择器来选择对应的元素。
例如在上文我们选取了所有的 a 节点,那么 CSS 选择器同样可以做到,如下所示:
>>> response.css('a') [Name: My image 1 <'>, Name: My image 2 <'>, Name: My image 3 <'>, Name: My image 4 <'>, Name: My image 5 <'>]
同样,调用 extract() 方法就可以提取出节点,如下所示:
python>>> response.css(‘a’).extract() [‘Name: My image 1 ‘, ‘Name: My image 2 ‘, ‘Name: My image 3 ‘, ‘Name: My image 4 ‘, ‘Name: My image 5 ‘]
用法和 XPath 选择是完全一样的。 另外,我们也可以进行属性选择和嵌套选择,如下所示: ```python >>> response.css('a[href="image1.html"]').extract() ['Name: My image 1
'] >>> response.css('a[href="image1.html"] img').extract() [''] ```这里用 [href="image.html"] 限定了 href 属性,可以看到匹配结果就只有一个了。另外如果想查找 a 节点内的 img 节点, 只需要再加一个空格和 img 即可。选择器的写法和标准 CSS 选择器写法如出一辙。 我们也可以使用 extract_first() 方法提取列表的第一个元素,如下所示: ```python >>> response.css('a[href="image1.html"] img').extract_first() ''
接下来的两个用法不太一样。节点的内部文本和属性的获取是这样实现的,如下所示:
>>> response.css('a[href="image1.html"]::text').extract_first() 'Name: My image 1 ' >>> response.css('a[href="image1.html"] img::attr(src)').extract_first() 'image1_thumb.jpg'
获取文本和属性需要用::text 和::attr() 的写法。而其他库如 Beautiful Soup 或 pyquery 都有单独的方法。
另外,CSS 选择器和 XPath 选择器一样可以嵌套选择。我们可以先用 XPath 选择器选中所有 a 节点,再利用 CSS 选择器选中 img 节点,再用 XPath 选择器获取属性。我们用一个实例来感受一下,如下所示:
>>> response.xpath('//a').css('img').xpath('@src').extract() ['image1_thumb.jpg', 'image2_thumb.jpg', 'image3_thumb.jpg', 'image4_thumb.jpg', 'image5_thumb.jpg']
我们成功获取了所有 img 节点的 src 属性。
因此,我们可以随意使用 xpath() 和 css() 方法二者自由组合实现嵌套查询,二者是完全兼容的。
5. 正则匹配
Scrapy 的选择器还支持正则匹配。比如,在示例的 a 节点中的文本类似于 Name: My image 1,现在我们只想把 Name: 后面的内容提取出来,这时就可以借助 re() 方法,实现如下:
>>> response.xpath('//a/text()').re('Name:s(.*)') ['My image 1 ', 'My image 2 ', 'My image 3 ', 'My image 4 ', 'My image 5 ']
我们给 re() 方法传了一个正则表达式,其中 (.*) 就是要匹配的内容,输出的结果就是正则表达式匹配的分组,结果会依次输出。
如果同时存在两个分组,那么结果依然会被按序输出,如下所示:
>>> response.xpath('//a/text()').re('(.*?):s(.*)') ['Name', 'My image 1 ', 'Name', 'My image 2 ', 'Name', 'My image 3 ', 'Name', 'My image 4 ', 'Name', 'My image 5 ']
类似 extract_first() 方法,re_first() 方法可以选取列表的第一个元素,用法如下:
>>> response.xpath('//a/text()').re_first('(.*?):s(.*)') 'Name' >>> response.xpath('//a/text()').re_first('Name:s(.*)') 'My image 1'
不论正则匹配了几个分组,结果都会等于列表的第一个元素。
值得注意的是,response 对象不能直接调用 re() 和 re_first() 方法。如果想要对全文进行正则匹配,可以先调用 xpath() 方法再正则匹配,如下所示:
>>> response.re('Name:s(.*)') Traceback (most recent call last): File "", line 1, in AttributeError: 'HtmlResponse' object has no attribute 're' >>> response.xpath('.').re('Name:s(.*)
') ['My image 1 ', 'My image 2 ', 'My image 3 ', 'My image 4 ', 'My image 5 '] >>> response.xpath('.').re_first('Name:s(.*)
') 'My image 1'
通过上面的例子,我们可以看到,直接调用 re() 方法会提示没有 re 属性。但是这里首先调用了 xpath(‘.’) 选中全文,然后调用 re() 和 re_first() 方法,就可以进行正则匹配了。
以上是关于Python3爬虫中Selector的用法的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联-成都网站建设公司行业资讯频道!
网站名称:关于Python3爬虫中Selector的用法-创新互联
当前路径:http://ybzwz.com/article/dhehep.html