【爬虫系列】第二部分 网页解析Jsoup

2024-06-09 20:38

本文主要是介绍【爬虫系列】第二部分 网页解析Jsoup,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Jsoup是一款JavaHTML解析器,可直接解析某个URL地址、HTML文本内容。它提供了一套非常省力的API,可通过DOMCSS以及类似于jQuery的操作方法来取出和操作数据。

     在爬虫采集网页领域主要作用是HttpClient获取到网页后,使用Jsoup提取网页中需要的信息,Jsoup支持类似JqueryCSS选择器,来获取需要的数据,使用非常方便。

     下面结合代码简单展示如何使用Jsoup获取需要的页面数据。

一、Jsoup 入门demo

[java]  view plain  copy
  1. public class JsoupHello {  
  2.   
  3.     public static void main(String[] args) throws Exception{  
  4.         CloseableHttpClient httpclient = HttpClients.createDefault(); // 创建httpclient实例  
  5.         HttpGet httpget = new HttpGet("http://www.cnblogs.com/"); // 创建httpget实例  
  6.            
  7.         CloseableHttpResponse response = httpclient.execute(httpget); // 执行get请求  
  8.         HttpEntity entity=response.getEntity(); // 获取返回实体  
  9.         String content=EntityUtils.toString(entity, "utf-8");  
  10.         response.close(); // 关闭流和释放系统资源  
  11.           
  12.         Document doc=Jsoup.parse(content); // 解析网页 得到文档对象  
  13.         Elements elements=doc.getElementsByTag("title"); // 获取tag是title的所有DOM元素  
  14.         Element element=elements.get(0); // 获取第1个元素  
  15.         String title=element.text(); // 返回元素的文本  
  16.         System.out.println("网页标题是:"+title);  
  17.           
  18.         Element element2=doc.getElementById("site_nav_top"); // 获取id=site_nav_top的DOM元素  
  19.         String navTop=element2.text(); // 返回元素的文本  
  20.         System.out.println("口号:"+navTop);  
  21.            
  22.     }  
  23. }  
1、使用httpClient 获取网页

2、使用jsoup parse解析网页,并根据丰富的getElement方法按照不同的属性获取元素值

二、常用查找dom元素方法

1、根据标签名(tagName)查找dom  

[java]  view plain  copy
  1. Elements elements=  doc.getElementsByTag("title"); //获取tag是title的所有dom元素          
  2. Element element= elements.get(0); //获取第一个  
  3. System.out.println(element.text());//输出元素txt值  
2、根据元素Id查找

[java]  view plain  copy
  1. Element elementById=doc.getElementById("footer");  
  2. System.out.println(elementById.text());  
3、根据class 名查找

[java]  view plain  copy
  1. Elements elementsByClass=doc.getElementsByClass("post_item");  
  2. for(Element e:elementsByClass)  
  3. {  
  4.     System.out.println(e.html());  
  5. }  
4、根据attribute属性名查找

[java]  view plain  copy
  1. //根据属性名(如:id,width) 查询dom  
  2. Elements elementsByAttr=doc.getElementsByAttribute("width");  
  3. for(Element e2:elementsByAttr)  
  4. {  
  5.     System.out.println(e2.toString());  
  6. }  
5、根据attribute和attributeValue共同查找

[java]  view plain  copy
  1. //根据属性名&值共同查找dom  
  2. Elements elementsByAttrValue=doc.getElementsByAttributeValue("width""142");  
  3. System.out.println(elementsByAttrValue.toString());  
三、使用Jsoup选择器查找dom元素

1、class类选择器使用

[java]  view plain  copy
  1.       //class 使用.   中间空格  
  2. Elements eleLinks= doc.select(".post_item .post_item_body h3 a");     
  3. for(Element el:eleLinks)  
  4.  {  
  5.  System.out.println(el.text());  
  6.  }  
2、带有href超链接的a标签查找

[java]  view plain  copy
  1. //css语法 带有href 属性的a元素   
  2. Elements elea= doc.select("a[href]");  
  3. for(Element ea:eleLinks)  
  4.  {  
  5.  System.out.println(ea.toString());  
  6.  }  
3、查找图片标签

[java]  view plain  copy
  1. //img图片  
  2. Elements imgs= doc.select("img[src$=.png]");//查找img标签,后缀为png的所有图片dom  
  3. for(Element ea:imgs)  
  4.  {  
  5.  System.out.println(ea.toString());  
  6.  }  

4、根据dom Id查找元素

[java]  view plain  copy
  1. //根据dom id获取元素 ,text返回a的中文文本信息,html返回a标签链接信息  
  2.        Element eleId=doc.select("#friend_link").first();  
  3.        System.out.println("##############纯文本"+eleId.text());  
  4.        System.out.println("##############纯文本"+eleId.html());  

5、获取dom元素中指定属性值

[java]  view plain  copy
  1. Elements eleLinks= doc.select(".post_item .post_item_body h3 a");     
  2.    for(Element el:eleLinks)  
  3.     {  
  4.        System.out.println("***********************标题是"+el.text()); //获取所有文本  
  5.        System.out.println("***********************连接是"+el.attr("href")); //获取所有博客链接 dom a 里的属性值  
  6.     }  

这篇关于【爬虫系列】第二部分 网页解析Jsoup的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1046239

相关文章

MyBatis分页插件PageHelper深度解析与实践指南

《MyBatis分页插件PageHelper深度解析与实践指南》在数据库操作中,分页查询是最常见的需求之一,传统的分页方式通常有两种内存分页和SQL分页,MyBatis作为优秀的ORM框架,本身并未提... 目录1. 为什么需要分页插件?2. PageHelper简介3. PageHelper集成与配置3.

SQL 外键Foreign Key全解析

《SQL外键ForeignKey全解析》外键是数据库表中的一列(或一组列),用于​​建立两个表之间的关联关系​​,外键的值必须匹配另一个表的主键(PrimaryKey)或唯一约束(UniqueCo... 目录1. 什么是外键?​​ ​​​​2. 外键的语法​​​​3. 外键的约束行为​​​​4. 多列外键​

Java进行日期解析与格式化的实现代码

《Java进行日期解析与格式化的实现代码》使用Java搭配ApacheCommonsLang3和Natty库,可以实现灵活高效的日期解析与格式化,本文将通过相关示例为大家讲讲具体的实践操作,需要的可以... 目录一、背景二、依赖介绍1. Apache Commons Lang32. Natty三、核心实现代

使用Python自动化生成PPT并结合LLM生成内容的代码解析

《使用Python自动化生成PPT并结合LLM生成内容的代码解析》PowerPoint是常用的文档工具,但手动设计和排版耗时耗力,本文将展示如何通过Python自动化提取PPT样式并生成新PPT,同时... 目录核心代码解析1. 提取 PPT 样式到 jsON关键步骤:代码片段:2. 应用 JSON 样式到

Maven 插件配置分层架构深度解析

《Maven插件配置分层架构深度解析》:本文主要介绍Maven插件配置分层架构深度解析,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录Maven 插件配置分层架构深度解析引言:当构建逻辑遇上复杂配置第一章 Maven插件配置的三重境界1.1 插件配置的拓扑

全解析CSS Grid 的 auto-fill 和 auto-fit 内容自适应

《全解析CSSGrid的auto-fill和auto-fit内容自适应》:本文主要介绍了全解析CSSGrid的auto-fill和auto-fit内容自适应的相关资料,详细内容请阅读本文,希望能对你有所帮助... css  Grid 的 auto-fill 和 auto-fit/* 父元素 */.gri

Maven 依赖发布与仓库治理的过程解析

《Maven依赖发布与仓库治理的过程解析》:本文主要介绍Maven依赖发布与仓库治理的过程解析,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下... 目录Maven 依赖发布与仓库治理引言第一章:distributionManagement配置的工程化实践1

MySQL复合查询从基础到多表关联与高级技巧全解析

《MySQL复合查询从基础到多表关联与高级技巧全解析》本文主要讲解了在MySQL中的复合查询,下面是关于本文章所需要数据的建表语句,感兴趣的朋友跟随小编一起看看吧... 目录前言:1.基本查询回顾:1.1.查询工资高于500或岗位为MANAGER的雇员,同时还要满足他们的姓名首字母为大写的J1.2.按照部门

Spring三级缓存解决循环依赖的解析过程

《Spring三级缓存解决循环依赖的解析过程》:本文主要介绍Spring三级缓存解决循环依赖的解析过程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、循环依赖场景二、三级缓存定义三、解决流程(以ServiceA和ServiceB为例)四、关键机制详解五、设计约

Redis实现分布式锁全解析之从原理到实践过程

《Redis实现分布式锁全解析之从原理到实践过程》:本文主要介绍Redis实现分布式锁全解析之从原理到实践过程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、背景介绍二、解决方案(一)使用 SETNX 命令(二)设置锁的过期时间(三)解决锁的误删问题(四)Re