【爬虫系列】第二部分 网页解析Jsoup

2024-06-09 20:38

本文主要是介绍【爬虫系列】第二部分 网页解析Jsoup,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Jsoup是一款JavaHTML解析器,可直接解析某个URL地址、HTML文本内容。它提供了一套非常省力的API,可通过DOMCSS以及类似于jQuery的操作方法来取出和操作数据。

     在爬虫采集网页领域主要作用是HttpClient获取到网页后,使用Jsoup提取网页中需要的信息,Jsoup支持类似JqueryCSS选择器,来获取需要的数据,使用非常方便。

     下面结合代码简单展示如何使用Jsoup获取需要的页面数据。

一、Jsoup 入门demo

[java]  view plain  copy
  1. public class JsoupHello {  
  2.   
  3.     public static void main(String[] args) throws Exception{  
  4.         CloseableHttpClient httpclient = HttpClients.createDefault(); // 创建httpclient实例  
  5.         HttpGet httpget = new HttpGet("http://www.cnblogs.com/"); // 创建httpget实例  
  6.            
  7.         CloseableHttpResponse response = httpclient.execute(httpget); // 执行get请求  
  8.         HttpEntity entity=response.getEntity(); // 获取返回实体  
  9.         String content=EntityUtils.toString(entity, "utf-8");  
  10.         response.close(); // 关闭流和释放系统资源  
  11.           
  12.         Document doc=Jsoup.parse(content); // 解析网页 得到文档对象  
  13.         Elements elements=doc.getElementsByTag("title"); // 获取tag是title的所有DOM元素  
  14.         Element element=elements.get(0); // 获取第1个元素  
  15.         String title=element.text(); // 返回元素的文本  
  16.         System.out.println("网页标题是:"+title);  
  17.           
  18.         Element element2=doc.getElementById("site_nav_top"); // 获取id=site_nav_top的DOM元素  
  19.         String navTop=element2.text(); // 返回元素的文本  
  20.         System.out.println("口号:"+navTop);  
  21.            
  22.     }  
  23. }  
1、使用httpClient 获取网页

2、使用jsoup parse解析网页,并根据丰富的getElement方法按照不同的属性获取元素值

二、常用查找dom元素方法

1、根据标签名(tagName)查找dom  

[java]  view plain  copy
  1. Elements elements=  doc.getElementsByTag("title"); //获取tag是title的所有dom元素          
  2. Element element= elements.get(0); //获取第一个  
  3. System.out.println(element.text());//输出元素txt值  
2、根据元素Id查找

[java]  view plain  copy
  1. Element elementById=doc.getElementById("footer");  
  2. System.out.println(elementById.text());  
3、根据class 名查找

[java]  view plain  copy
  1. Elements elementsByClass=doc.getElementsByClass("post_item");  
  2. for(Element e:elementsByClass)  
  3. {  
  4.     System.out.println(e.html());  
  5. }  
4、根据attribute属性名查找

[java]  view plain  copy
  1. //根据属性名(如:id,width) 查询dom  
  2. Elements elementsByAttr=doc.getElementsByAttribute("width");  
  3. for(Element e2:elementsByAttr)  
  4. {  
  5.     System.out.println(e2.toString());  
  6. }  
5、根据attribute和attributeValue共同查找

[java]  view plain  copy
  1. //根据属性名&值共同查找dom  
  2. Elements elementsByAttrValue=doc.getElementsByAttributeValue("width""142");  
  3. System.out.println(elementsByAttrValue.toString());  
三、使用Jsoup选择器查找dom元素

1、class类选择器使用

[java]  view plain  copy
  1.       //class 使用.   中间空格  
  2. Elements eleLinks= doc.select(".post_item .post_item_body h3 a");     
  3. for(Element el:eleLinks)  
  4.  {  
  5.  System.out.println(el.text());  
  6.  }  
2、带有href超链接的a标签查找

[java]  view plain  copy
  1. //css语法 带有href 属性的a元素   
  2. Elements elea= doc.select("a[href]");  
  3. for(Element ea:eleLinks)  
  4.  {  
  5.  System.out.println(ea.toString());  
  6.  }  
3、查找图片标签

[java]  view plain  copy
  1. //img图片  
  2. Elements imgs= doc.select("img[src$=.png]");//查找img标签,后缀为png的所有图片dom  
  3. for(Element ea:imgs)  
  4.  {  
  5.  System.out.println(ea.toString());  
  6.  }  

4、根据dom Id查找元素

[java]  view plain  copy
  1. //根据dom id获取元素 ,text返回a的中文文本信息,html返回a标签链接信息  
  2.        Element eleId=doc.select("#friend_link").first();  
  3.        System.out.println("##############纯文本"+eleId.text());  
  4.        System.out.println("##############纯文本"+eleId.html());  

5、获取dom元素中指定属性值

[java]  view plain  copy
  1. Elements eleLinks= doc.select(".post_item .post_item_body h3 a");     
  2.    for(Element el:eleLinks)  
  3.     {  
  4.        System.out.println("***********************标题是"+el.text()); //获取所有文本  
  5.        System.out.println("***********************连接是"+el.attr("href")); //获取所有博客链接 dom a 里的属性值  
  6.     }  

这篇关于【爬虫系列】第二部分 网页解析Jsoup的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1046239

相关文章

深度解析Java @Serial 注解及常见错误案例

《深度解析Java@Serial注解及常见错误案例》Java14引入@Serial注解,用于编译时校验序列化成员,替代传统方式解决运行时错误,适用于Serializable类的方法/字段,需注意签... 目录Java @Serial 注解深度解析1. 注解本质2. 核心作用(1) 主要用途(2) 适用位置3

Java MCP 的鉴权深度解析

《JavaMCP的鉴权深度解析》文章介绍JavaMCP鉴权的实现方式,指出客户端可通过queryString、header或env传递鉴权信息,服务器端支持工具单独鉴权、过滤器集中鉴权及启动时鉴权... 目录一、MCP Client 侧(负责传递,比较简单)(1)常见的 mcpServers json 配置

从原理到实战解析Java Stream 的并行流性能优化

《从原理到实战解析JavaStream的并行流性能优化》本文给大家介绍JavaStream的并行流性能优化:从原理到实战的全攻略,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的... 目录一、并行流的核心原理与适用场景二、性能优化的核心策略1. 合理设置并行度:打破默认阈值2. 避免装箱

Maven中生命周期深度解析与实战指南

《Maven中生命周期深度解析与实战指南》这篇文章主要为大家详细介绍了Maven生命周期实战指南,包含核心概念、阶段详解、SpringBoot特化场景及企业级实践建议,希望对大家有一定的帮助... 目录一、Maven 生命周期哲学二、default生命周期核心阶段详解(高频使用)三、clean生命周期核心阶

深入解析C++ 中std::map内存管理

《深入解析C++中std::map内存管理》文章详解C++std::map内存管理,指出clear()仅删除元素可能不释放底层内存,建议用swap()与空map交换以彻底释放,针对指针类型需手动de... 目录1️、基本清空std::map2️、使用 swap 彻底释放内存3️、map 中存储指针类型的对象

Java Scanner类解析与实战教程

《JavaScanner类解析与实战教程》JavaScanner类(java.util包)是文本输入解析工具,支持基本类型和字符串读取,基于Readable接口与正则分隔符实现,适用于控制台、文件输... 目录一、核心设计与工作原理1.底层依赖2.解析机制A.核心逻辑基于分隔符(delimiter)和模式匹

Java+AI驱动实现PDF文件数据提取与解析

《Java+AI驱动实现PDF文件数据提取与解析》本文将和大家分享一套基于AI的体检报告智能评估方案,详细介绍从PDF上传、内容提取到AI分析、数据存储的全流程自动化实现方法,感兴趣的可以了解下... 目录一、核心流程:从上传到评估的完整链路二、第一步:解析 PDF,提取体检报告内容1. 引入依赖2. 封装

深度解析Python yfinance的核心功能和高级用法

《深度解析Pythonyfinance的核心功能和高级用法》yfinance是一个功能强大且易于使用的Python库,用于从YahooFinance获取金融数据,本教程将深入探讨yfinance的核... 目录yfinance 深度解析教程 (python)1. 简介与安装1.1 什么是 yfinance?

99%的人都选错了! 路由器WiFi双频合一还是分开好的专业解析与适用场景探讨

《99%的人都选错了!路由器WiFi双频合一还是分开好的专业解析与适用场景探讨》关于双频路由器的“双频合一”与“分开使用”两种模式,用户往往存在诸多疑问,本文将从多个维度深入探讨这两种模式的优缺点,... 在如今“没有WiFi就等于与世隔绝”的时代,越来越多家庭、办公室都开始配置双频无线路由器。但你有没有注

Python中的sort()和sorted()用法示例解析

《Python中的sort()和sorted()用法示例解析》本文给大家介绍Python中list.sort()和sorted()的使用区别,详细介绍其参数功能及Timsort排序算法特性,涵盖自适应... 目录一、list.sort()参数说明常用内置函数基本用法示例自定义函数示例lambda表达式示例o