300字范文,内容丰富有趣,生活中的好帮手!
300字范文 > CSS选择器字段解析的实现方法

CSS选择器字段解析的实现方法

时间:2021-08-29 13:20:11

相关推荐

CSS选择器字段解析的实现方法

web前端|css教程

选择器,css,样式表

web前端-css教程

根据上面所学的CSS基础语法知识,现在来实现字段的解析。首先还是解析标题。打开网页开发者工具,找到标题所对应的源代码。本文主要介绍了CSS选择器实现字段解析的相关资料,需要的朋友可以参考下,希望能帮助到大家

家谱网源码,ubuntu不显示充电,tomcat 一直在启动,爬虫面试及答案,在线PHP偷拍网恋照妖镜源码,亚seo查询lzw

互动会议源码,vscode编辑代码片段,类似yum ubuntu,联通 电信 tomcat,sqlite表中唯一,屏蔽时会影响爬虫软件运行吗,php ts nts,惠安seo优化价格,网站制作破解版,十三水网页源码,建站之星 更换模板lzw

发现是在p下面的h1节点中,于是打开scrapy shell 进行调试

vb 1vsn服务端源码,vscode整理代码不一致,ubuntu 谷歌拼音,tomcat连接池参数详情,sqlite系统时间,网页设计公司排名,远程桌面连接服务器,wordpress回复下载插件,项目替换前端框架,虞山爬虫店,php-x,上海专业seo优化公司,一元云购网站源码下载,网页游戏源码交易平台,qq空间主页模板,响应式手机版页面,班级管理系统页面模板,iis安装程序lzw

但是我不想要

这种标签该咋办,这时候就要使用CSS选择器中的伪类方法。如下所示。

注意的是两个冒号。使用CSS选择器真的很方便。同理我用CSS实现字段解析。代码如下

# -*- coding: utf-8 -*- import scrapy import re class JobboleSpider(scrapy.Spider):name = jobboleallowed_domains = [\]start_urls = [/113549/]def parse(self, response):# title = response.xpath(//p[@class = "entry-header"]/h1/text()).extract()[0]# create_date = response.xpath("//p[@class = entry-meta-hide-on-mobile]/text()").extract()[0].strip().replace("·","").strip()# praise_numbers = response.xpath("//span[contains(@class,vote-post-up)]/h10/text()").extract()[0]# fav_nums = response.xpath("//span[contains(@class,ookmark-btn)]/text()").extract()[0]# match_re = re.match(".*?(\d+).*",fav_nums)# if match_re:#fav_nums = match_re.group(1)# comment_nums = response.xpath("//a[@href=#article-comment]/span").extract()[0]# match_re = re.match(".*?(\d+).*", comment_nums)# if match_re:#comment_nums = match_re.group(1)# content = response.xpath("//p[@class=entry]").extract()[0] #通过CSS选择器提取字段title = response.css(".entry-header h1::text").extract()[0]create_date = response.css(".entry-meta-hide-on-mobile::text").extract()[0].strip().replace("·","").strip()praise_numbers = response.css(".vote-post-up h10::text").extract()[0]fav_nums = response.css("span.bookmark-btn::text").extract()[0]match_re = re.match(".*?(\d+).*", fav_nums)if match_re: fav_nums = match_re.group(1)comment_nums = response.css("a[href=#article-comment] span::text").extract()[0]match_re = re.match(".*?(\d+).*", comment_nums)if match_re: comment_nums = match_re.group(1)content = response.css("p.entry").extract()[0]tags = response.css("p.entry-meta-hide-on-mobile a::text").extract()[0]pass

OpenERP雇员(员工)表与用户表关联字段解析

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。