C#爬虫爬取某东商品信息

2024-05-10 09:12

本文主要是介绍C#爬虫爬取某东商品信息,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

🏆作者:科技、互联网行业优质创作者
🏆专注领域:.Net技术、软件架构、人工智能、数字化转型、DeveloperSharp、微服务、工业互联网、智能制造
🏆欢迎关注我(Net数字智慧化基地),里面有很多高价值技术文章,是你刻苦努力也积累不到的经验,能助你快速成长。升职+涨薪!!

在一个小项目中,需要用到京东的所有商品ID,因此就用c#写了个简单的爬虫。

在解析HTML中没有使用正则表达式,而是借助开源项目HtmlAgilityPack解析HTML。

一、下载网页HTML

首先我们写一个公共方法用来下载网页的HTML。

在写下载HTML方法之前,我们需要去查看京东网页请求头的相关信息,在发送请求时需要用到。

public static string DownloadHtml(string url, Encoding encode)
{string html = string.Empty;try{HttpWebRequest request = WebRequest.Create(url) as HttpWebRequest;request.Timeout = 30 * 1000;request.UserAgent = "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.106 Safari/537.36";request.ContentType = "text/html; charset=utf-8";using (HttpWebResponse response = request.GetResponse() as HttpWebResponse){if (response.StatusCode == HttpStatusCode.OK){try{StreamReader sr = new StreamReader(response.GetResponseStream(), encode);html = sr.ReadToEnd();//读取数据sr.Close();}catch (Exception ex){html = null;}}}}catch (System.Net.WebException ex){html = null;}catch (Exception ex){html = null;}return html;
}

如上代码所示,我们使用WebRequest来获取网页信息,在发送请求之前,需要先设置和京东页面一样的请求头。

以上设置的信息比较简单,但能够正常发送请求,我们也可以模拟浏览器设置cookie等等信息,

二、解析HTML

获取所有商品的信息分为两个步骤

(1)根据商品分类页面获取所有商品分类的URL

(2)根据商品分类URL获取每个商品

 1、获取商品分类

try
{string html = HttpHelper.DownloadUrl(@"http://www.jd.com/allSort.aspx");HtmlDocument doc = new HtmlDocument();doc.LoadHtml(html);string goodClass= @"//*[@class='items']/dl/dd";HtmlNodeCollection noneNodeList = doc.DocumentNode.SelectNodes(goodClass);foreach (var node in noneNodeList){HtmlDocument docChild = new HtmlDocument();docChild.LoadHtml(node.OuterHtml);string urlPath = "/dd/a";HtmlNodeCollection list = docChild.DocumentNode.SelectNodes(urlPath);foreach (var l in list){HtmlDocument docChild1 = new HtmlDocument();docChild1.LoadHtml(l.OuterHtml);var sortUrl = l.Attributes["href"].Value;if (!string.IsNullOrWhiteSpace(sortUrl) && sortUrl.Contains("cat=")){InsertSort("https:" + sortUrl);}}}
}
catch (Exception ex)
{Console.WriteLine(ex.Message);
}

上面的代码中使用到了HtmlAgilityPack来解析HTML信息,这是.NET的开源项目,开源在nuget包中下载。

(1)下载http://www.jd.com/allSort.aspx的html页,然后加载到HtmlDocument

(2)选择节点,获取每个大类的节点集合

(3)根据每个大类的节点,获取每个小类的节点信息,然后获取到分类地址

节点中也包含了其它很多信息,可以根据自己的需求去获取对应的信息

2、获取具体商品信息

  

(1)首先根据商品分类加载分类信息,获取到当前分类每个页面的链接

下载HTML之后,选择节点,可以将HTML格式化之后查看每个页面的url地址和拼接规则,然后借助HtmlAgilityPack

来筛选需要的节点,将每个页面的url分离出来

try
{string html = HttpHelper.DownloadUrl(@"https://list.jd.com/list.html?cat=1620,11158,11964");HtmlDocument productDoc = new HtmlDocument();productDoc.LoadHtml(html);HtmlNode pageNode = productDoc.DocumentNode.SelectSingleNode(@"//*[@id='J_topPage']/span/i");if (pageNode != null){int pageNum = Convert.ToInt32(pageNode.InnerText);for (int i = 1; i < pageNum + 1; i++){string pageUrl = string.Format("{0}&page={1}", category.Url, i).Replace("&page=1&", string.Format("&page={0}&", i));try{List<ProductInfo> proDuctInfo = GetPageProduct(pageUrl);}catch (Exception ex){Console.WriteLine(ex.Message);}}}
}
catch (Exception ex)
{Console.WriteLine(ex.Message);
}

(2)根据每个页面的链接,获取当前页面的商品信息

下载每个页面的所有商品信息,需要获取的商品信息在页面中都能找到

首先我们获取到每个商品的节点集合,获取到一个商品的节点信息之后,分析html数据,

找到我们需要的商品的信息所在的位置,然后将需要的信息分离出来。

下面的代码中我获取到的商品的id和title还有价格。

List<ProductInfo> productInfoList = new List<ProductInfo>();
try
{string html = HttpHelper.DownloadUrl(url);HtmlDocument doc = new HtmlDocument();doc.LoadHtml(html);HtmlNodeCollection productNodeList = doc.DocumentNode.SelectNodes("//*[@id='plist']/ul/li");if (productNodeList == null || productNodeList.Count == 0){return productInfoList;}foreach (var node in productNodeList){HtmlDocument docChild = new HtmlDocument();docChild.LoadHtml(node.OuterHtml);ProductInfo productInfo = new ProductInfo(){CategoryId = category.Id};HtmlNode urlNode = docChild.DocumentNode.SelectSingleNode("//*[@class='p-name']/a");if (urlNode == null){continue;}string newUrl= urlNode.Attributes["href"].Value;newUrl = !newUrl.StartsWith("http:")?"http:" + newUrl: newUrl;string sId = Path.GetFileName(newUrl).Replace(".html", "");productInfo.ProductId = long.Parse(sId);HtmlNode titleNode = docChild.DocumentNode.SelectSingleNode("//*[@class='p-name']/a/em");if (titleNode == null){continue;}productInfo.Title = titleNode.InnerText;HtmlNode priceNode = docChild.DocumentNode.SelectSingleNode("//*[@class='p-price']/strong/i");if (priceNode == null){continue;}else{}productInfoList.Add(productInfo);}//批量获取价格GetGoodsPrice(productInfoList);
}
catch (Exception ex)
{
}
return productInfoList;

商品的图片地址和价格信息的获取需要仔细分析html中的数据,然后找到规律,比如价格在每个节点中就不能单独获取。

以下为批量获取价格的代码:

try
{StringBuilder sb = new StringBuilder();sb.AppendFormat("http://p.3.cn/prices/mgets?callback=jQuery1069298&type=1&area=1_72_4137_0&skuIds={0}&pdbp=0&pdtk=&pdpin=&pduid=1945966343&_=1469022843655", string.Join("%2C", productInfoList.Select(c => string.Format("J_{0}", c.ProductId))));string html = HttpHelper.DownloadUrl(sb.ToString());if (string.IsNullOrWhiteSpace(html)){return productInfoList;}html = html.Substring(html.IndexOf("(") + 1);html = html.Substring(0, html.LastIndexOf(")"));List<CommodityPrice> priceList = JsonConvert.DeserializeObject<List<CommodityPrice>>(html);productInfoList.ForEach(c => c.Price = priceList.FirstOrDefault(p => p.id.Equals(string.Format("J_{0}", c.ProductId))).p);
}
catch (Exception ex)
{Console.WriteLine(ex.Message);
}
return productInfoList;

以上就是一个简单的爬取京东商品信息的爬虫,也可以根据自己的需求去解析更多的数据出来。

🏆欢迎订阅我的专栏(.NET/C#中大型项目开发),里面有很多高价值技术文章,是你刻苦努力也积累不到的经验,能助你涨薪+升职!让你快速成长为相关领域的架构师、领航员。也能让普通中小企业轻松享有大型互联网分布式系统解决方案。
🏆同时,专栏(.NET/C#中大型项目开发)的内容也能教你采用最简单的方式开发.NET/C#中大型应用——理清技术脉络、形成思维体系、获取最佳实践、框架开发能力。让你具备挑战百万年薪的基础,逐渐成为国内一流.NET/C#从业者。

这篇关于C#爬虫爬取某东商品信息的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/976021

相关文章

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

C#使用Spire.Doc for .NET实现HTML转Word的高效方案

《C#使用Spire.Docfor.NET实现HTML转Word的高效方案》在Web开发中,HTML内容的生成与处理是高频需求,然而,当用户需要将HTML页面或动态生成的HTML字符串转换为Wor... 目录引言一、html转Word的典型场景与挑战二、用 Spire.Doc 实现 HTML 转 Word1

C#实现一键批量合并PDF文档

《C#实现一键批量合并PDF文档》这篇文章主要为大家详细介绍了如何使用C#实现一键批量合并PDF文档功能,文中的示例代码简洁易懂,感兴趣的小伙伴可以跟随小编一起学习一下... 目录前言效果展示功能实现1、添加文件2、文件分组(书签)3、定义页码范围4、自定义显示5、定义页面尺寸6、PDF批量合并7、其他方法

C#下Newtonsoft.Json的具体使用

《C#下Newtonsoft.Json的具体使用》Newtonsoft.Json是一个非常流行的C#JSON序列化和反序列化库,它可以方便地将C#对象转换为JSON格式,或者将JSON数据解析为C#对... 目录安装 Newtonsoft.json基本用法1. 序列化 C# 对象为 JSON2. 反序列化

C#文件复制异常:"未能找到文件"的解决方案与预防措施

《C#文件复制异常:未能找到文件的解决方案与预防措施》在C#开发中,文件操作是基础中的基础,但有时最基础的File.Copy()方法也会抛出令人困惑的异常,当targetFilePath设置为D:2... 目录一个看似简单的文件操作问题问题重现与错误分析错误代码示例错误信息根本原因分析全面解决方案1. 确保

基于C#实现PDF转图片的详细教程

《基于C#实现PDF转图片的详细教程》在数字化办公场景中,PDF文件的可视化处理需求日益增长,本文将围绕Spire.PDFfor.NET这一工具,详解如何通过C#将PDF转换为JPG、PNG等主流图片... 目录引言一、组件部署二、快速入门:PDF 转图片的核心 C# 代码三、分辨率设置 - 清晰度的决定因

C# LiteDB处理时间序列数据的高性能解决方案

《C#LiteDB处理时间序列数据的高性能解决方案》LiteDB作为.NET生态下的轻量级嵌入式NoSQL数据库,一直是时间序列处理的优选方案,本文将为大家大家简单介绍一下LiteDB处理时间序列数... 目录为什么选择LiteDB处理时间序列数据第一章:LiteDB时间序列数据模型设计1.1 核心设计原则

C#高效实现Word文档内容查找与替换的6种方法

《C#高效实现Word文档内容查找与替换的6种方法》在日常文档处理工作中,尤其是面对大型Word文档时,手动查找、替换文本往往既耗时又容易出错,本文整理了C#查找与替换Word内容的6种方法,大家可以... 目录环境准备方法一:查找文本并替换为新文本方法二:使用正则表达式查找并替换文本方法三:将文本替换为图

C#使用Spire.XLS快速生成多表格Excel文件

《C#使用Spire.XLS快速生成多表格Excel文件》在日常开发中,我们经常需要将业务数据导出为结构清晰的Excel文件,本文将手把手教你使用Spire.XLS这个强大的.NET组件,只需几行C#... 目录一、Spire.XLS核心优势清单1.1 性能碾压:从3秒到0.5秒的质变1.2 批量操作的优雅

C#和Unity中的中介者模式使用方式

《C#和Unity中的中介者模式使用方式》中介者模式通过中介者封装对象交互,降低耦合度,集中控制逻辑,适用于复杂系统组件交互场景,C#中可用事件、委托或MediatR实现,提升可维护性与灵活性... 目录C#中的中介者模式详解一、中介者模式的基本概念1. 定义2. 组成要素3. 模式结构二、中介者模式的特点