爬虫应用——寻找乔丹相关10条URL

2024-03-27 22:38

本文主要是介绍爬虫应用——寻找乔丹相关10条URL,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

直接百度乔丹的URL是这样的:
root-url:

http://baike.baidu.com/link?url=Htp0lISd4ld46oenEs4HvYh13u8iTht9YxBpUY8e3QECSsxXYQRg_yr7R_wvRos3kWflwekkcn_5VuZsgEhFPY_oQAKj8xla3F6MXbCoDnirERpJEyVuHZ3uGGvpmfwVz_rsdygPH5wirnODhhSv2_

恩,的确非常恶心。我们需要寻找一个root-url,但是这样恶心的URL确实不能正常工作。
然后我用了一个笨办法,直接百度科比,然后找到乔丹的链接,查看元素并作为HTML编辑,OK,本尊出现:

http://baike.baidu.com/view/19096.htm

有了它后,就可以进行分析和编码了。
从之前的学习记录看,我们至少需要调度器spider_man,URL管理器url_manager,HTML解析器html_parser,HTML下载器html_downloader
计划输出结果保存成一个文件,所以,我们的文件结构是:

  • spider_man.py
  • url_manager.py
  • html_downloader.py
  • html_parser.py
  • outputer.py

查看网页上其他链接的格式,右击——查看元素——作为HTML编辑:

<a target="_blank" href="/view/32594.htm">芝加哥公牛队</a>

学习了BeautifulSoup官网上相关的筛选语法后,为了精确的定位我们想要的信息,可以这样:

new_urls=set()#<a target="_blank" href="/view/32594.htm">芝加哥公牛队</a>links=soup.find_all('a',href=re.compile(r"/view/\d+\.htm"))   #正则匹配
links=soup.find_all(target="_blank")

编码部分:
html_downloader.py:

#coding:utf8
import urllib2class HtmlDownloader(object):def download(self,url):if url is None:return Noneresponse = urllib2.urlopen(url)if response.getcode()!=200:return None#print response.read()return response.read()

outputer.py:

#coding:utf8class HtmlOutputer(object):def __init__(self):self.datas=[]def collect_data(self,data):if data is None:returnself.datas.append(data)def output_html(self):fout=open('output.html','w')fout.write('<html>')fout.write('<body>')fout.write('<table border="1px solid #000">')for data in self.datas:fout.write('<tr>')fout.write('<td>%s</td>' %data['url'])fout.write('<td>%s</td>' %data['title'].encode('utf-8'))fout.write('</tr>')fout.write('</table>')fout.write('</body>')fout.write('</html>')fout.close()

html_parser.py:

#coding:utf8
from bs4 import BeautifulSoup
import re
import urlparseclass HtmlParser(object):def _get_new_urls(self,page_url,soup):new_urls=set()#<a target="_blank" href="/view/32594.htm">芝加哥公牛队</a>links=soup.find_all('a',href=re.compile(r"/view/\d+\.htm"))   #正则匹配links=soup.find_all(target="_blank")for link in links:new_url=link['href']new_full_url=urlparse.urljoin(page_url,new_url)new_urls.add(new_full_url)#print new_urlsreturn new_urlsdef _get_new_data(self,page_url,soup):res_data={}res_data['url']=page_url#<dd class="lemmaWgt-lemmaTitle-title">#<h1>迈克尔·乔丹</h1>title_node=soup.find('dd',class_="lemmaWgt-lemmaTitle-title").find("h1")res_data['title']=title_node.get_text()return res_data        def parse(self,page_url,html_cont):if page_url is None or html_cont is None:returnsoup=BeautifulSoup(html_cont,'html.parser',from_encoding='utf-8')#print soupnew_urls=self._get_new_urls(page_url,soup)print new_urlsnew_data=self._get_new_data(page_url,soup)return new_urls,new_data

url_manager.py:

#coding:utf8class UrlManager(object):def __init__(self):self.new_urls=set()self.old_urls=set()def add_new_url(self,url):if url is None:returnif url not in self.new_urls and url not in self.old_urls:self.new_urls.add(url)def add_new_urls(self,urls):if urls is None or len(urls)==0:returnfor url in urls :self.add_new_url(url)def has_new_url(self):return len(self.new_urls)!=0def get_new_url(self):new_url=self.new_urls.pop()self.old_urls.add(new_url)return new_url

spider_man.py:

#coding: utf8
import url_manager,html_downloader,html_outputer,html_parserclass SpiderMain(object):"""docstring for SpiderMain"""def __init__(self):self.urls=url_manager.UrlManager()self.downloader=html_downloader.HtmlDownloader()self.parser=html_parser.HtmlParser()self.outputer=html_outputer.HtmlOutputer()def craw(self,root_url):count=1   #爬取第几个URLself.urls.add_new_url(root_url)while self.urls.has_new_url():try:new_url=self.urls.get_new_url()print 'NO.%d: %s' % (count,new_url)html_cont=self.downloader.download(new_url)# 解析得到URL和数据new_urls, new_data=self.parser.parse(new_url,html_cont)print new_urls#print new_dataself.urls.add_new_urls(new_urls)self.outputer.collect_data(new_data)if count==20:breakcount=count+1except Exception, e:print e#print countself.outputer.output_html()if __name__ == "__main__":root_url="http://baike.baidu.com/view/19096.htm"obj_spider=SpiderMain()obj_spider.craw(root_url);

获得结果:



http://baike.baidu.com/view/19096.htm迈克尔·乔丹
http://baike.baidu.com/view/1091423.htm杰里·斯隆
http://baike.baidu.com/view/62675.htm卡尔·马龙
http://baike.baidu.com/view/571202.htm公国
http://baike.baidu.com/subview/4466937/15093391.htm赛季
http://baike.baidu.com/view/582.htmNBA
http://baike.baidu.com/view/1795775.htm篮圈
http://baike.baidu.com/view/1124818.htm迈克尔·里德
http://baike.baidu.com/view/36806.htm蒂姆·邓肯
http://baike.baidu.com/view/1140.htmNBA季前赛

这篇关于爬虫应用——寻找乔丹相关10条URL的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/853625

相关文章

CSS中的Static、Relative、Absolute、Fixed、Sticky的应用与详细对比

《CSS中的Static、Relative、Absolute、Fixed、Sticky的应用与详细对比》CSS中的position属性用于控制元素的定位方式,不同的定位方式会影响元素在页面中的布... css 中的 position 属性用于控制元素的定位方式,不同的定位方式会影响元素在页面中的布局和层叠关

SpringBoot3应用中集成和使用Spring Retry的实践记录

《SpringBoot3应用中集成和使用SpringRetry的实践记录》SpringRetry为SpringBoot3提供重试机制,支持注解和编程式两种方式,可配置重试策略与监听器,适用于临时性故... 目录1. 简介2. 环境准备3. 使用方式3.1 注解方式 基础使用自定义重试策略失败恢复机制注意事项

CSS3中的字体及相关属性详解

《CSS3中的字体及相关属性详解》:本文主要介绍了CSS3中的字体及相关属性,详细内容请阅读本文,希望能对你有所帮助... 字体网页字体的三个来源:用户机器上安装的字体,放心使用。保存在第三方网站上的字体,例如Typekit和Google,可以link标签链接到你的页面上。保存在你自己Web服务器上的字

Python使用Tkinter打造一个完整的桌面应用

《Python使用Tkinter打造一个完整的桌面应用》在Python生态中,Tkinter就像一把瑞士军刀,它没有花哨的特效,却能快速搭建出实用的图形界面,作为Python自带的标准库,无需安装即可... 目录一、界面搭建:像搭积木一样组合控件二、菜单系统:给应用装上“控制中枢”三、事件驱动:让界面“活”

如何确定哪些软件是Mac系统自带的? Mac系统内置应用查看技巧

《如何确定哪些软件是Mac系统自带的?Mac系统内置应用查看技巧》如何确定哪些软件是Mac系统自带的?mac系统中有很多自带的应用,想要看看哪些是系统自带,该怎么查看呢?下面我们就来看看Mac系统内... 在MAC电脑上,可以使用以下方法来确定哪些软件是系统自带的:1.应用程序文件夹打开应用程序文件夹

Python Flask 库及应用场景

《PythonFlask库及应用场景》Flask是Python生态中​轻量级且高度灵活的Web开发框架,基于WerkzeugWSGI工具库和Jinja2模板引擎构建,下面给大家介绍PythonFl... 目录一、Flask 库简介二、核心组件与架构三、常用函数与核心操作 ​1. 基础应用搭建​2. 路由与参

Spring Boot中的YML配置列表及应用小结

《SpringBoot中的YML配置列表及应用小结》在SpringBoot中使用YAML进行列表的配置不仅简洁明了,还能提高代码的可读性和可维护性,:本文主要介绍SpringBoot中的YML配... 目录YAML列表的基础语法在Spring Boot中的应用从YAML读取列表列表中的复杂对象其他注意事项总

电脑系统Hosts文件原理和应用分享

《电脑系统Hosts文件原理和应用分享》Hosts是一个没有扩展名的系统文件,当用户在浏览器中输入一个需要登录的网址时,系统会首先自动从Hosts文件中寻找对应的IP地址,一旦找到,系统会立即打开对应... Hosts是一个没有扩展名的系统文件,可以用记事本等工具打开,其作用就是将一些常用的网址域名与其对应

CSS 样式表的四种应用方式及css注释的应用小结

《CSS样式表的四种应用方式及css注释的应用小结》:本文主要介绍了CSS样式表的四种应用方式及css注释的应用小结,本文通过实例代码给大家介绍的非常详细,详细内容请阅读本文,希望能对你有所帮助... 一、外部 css(推荐方式)定义:将 CSS 代码保存为独立的 .css 文件,通过 <link> 标签

Python使用Reflex构建现代Web应用的完全指南

《Python使用Reflex构建现代Web应用的完全指南》这篇文章为大家深入介绍了Reflex框架的设计理念,技术特性,项目结构,核心API,实际开发流程以及与其他框架的对比和部署建议,感兴趣的小伙... 目录什么是 ReFlex?为什么选择 Reflex?安装与环境配置构建你的第一个应用核心概念解析组件