python爬虫,抓取新浪科技的文章(beautifulsoup+mysql)

本文主要是介绍python爬虫,抓取新浪科技的文章(beautifulsoup+mysql),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

这几天的辛苦没有白费,总算完成了对新浪科技的文章抓取,除非没有新的内容了,否则会一直爬取新浪科技的文章。

想了解更多可以关注我的github:https://github.com/libp/WebSpider

如果想要数据库表结构可以留下邮箱~

# -*- coding: utf-8 -*-__author__ = 'Peng'
from bs4 import BeautifulSoup,Comment
import urllib2
from urllib2 import urlopen,HTTPError
import MySQLdb
import json
import datetime
import logging
import sys
import re
import time#配置日志输出位置为控制台
logging.basicConfig(level=logging.DEBUG,format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s',datefmt='%a, %d %b %Y %H:%M:%S',stream=sys.stdout)def spiderSinaTech(url,webname):conn = getConn();cur = conn.cursor()data = getSinaArticle(url,webname)if (data == None):#不能解析目标网页return -1try:sqlInsertArticle="insert into tbl_peng_article (title,author,content,createTime,getTime,url,webname) values (%s,%s,%s,%s,%s,%s,%s)"result = cur.execute(sqlInsertArticle,(data['title'],data['author'],data['article'],data['published_time'],data['getTime'],data['url'],data['webname']))except MySQLdb.Error,e:print "Mysql Error %d: %s" % (e.args[0], e.args[1])conn.commit()cur.close()conn.close()return resultdef getSinaArticle(url,webname):#创建字典用来储存函数的返回结果dict={'url':url,'title':'','published_time':'','getTime':'','author':'','article':'','webname':webname}#创建请求头headers={"User-Agent":"Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 ""(KHTML, like Gecko) Chrome/58.0.3029.96 Safari/537.36","Accept":"*/*"}#打开网页try:dict['url']=urlrequest = urllib2.Request(url,headers=headers)html = urlopen(request)except HTTPError as e:print(e)#读取网页内容并转换成树形文档结构soup = BeautifulSoup(html.read(),"lxml")#去除html注释for element in soup(text=lambda text: isinstance(text, Comment)):element.extract()#过滤JavaScript[s.extract() for s in soup('script')]try:#获取标题title = soup.find(id="main_title").get_text();# print(title)dict['title'] = titleexcept:return None#获取发布时间published_time = soup.find(property="article:published_time")['content'];#2017-06-03T11:31:53+08:00   这种时间格式叫UTC时间格式...很恶心# print(published_time)UTC_FORMAT = "%Y-%m-%dT%H:%M:%S+08:00"dict['published_time'] = datetime.datetime.strptime(published_time, UTC_FORMAT)#获取作者author = soup.find(property="article:author")['content'];# print(author)dict['author'] = author#获取文章主体content = soup.find(id="artibody");img = content.find_all(class_="img_wrapper")#删除文档书中图片标签for del_img in img:del_img.decompose()#获取文章主体各个段落paragraph = soup.find(id="artibody").contents;#最终入库的文章内容article =""for child in paragraph:article += str(child)# print(article)dict['article'] = article# print json.dumps(dict)# date在转换成json的时候包括,需要重构date转换的函数# return json.dumps(dict)#文章抓取时间dict['getTime']=str(datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S"))return dictdef getConn():conn= MySQLdb.connect(host='localhost',port = 3306,user='root',passwd='root',db ='nichuiniu',charset='utf8',)return conndef GOSina(url,webname):#创建链接集合# pages = set()#创建字典用来储存函数的返回结果# dict={'url':url,'title':'','published_time':'','getTime':'','author':'','article':'','webname':webname}#创建请求头headers={"User-Agent":"Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 ""(KHTML, like Gecko) Chrome/58.0.3029.96 Safari/537.36","Accept":"*/*"}#打开网页try:request = urllib2.Request(url,headers=headers)html = urlopen(request)except HTTPError as e:print(e)#读取网页内容并转换成树形文档结构soup = BeautifulSoup(html.read(),"lxml")conn = getConn();cur = conn.cursor()#声明一个数组用来存储入库的文章链接L = []for link in soup.findAll("a",href=re.compile(r'(.*?)(tech)(.*?)(\d{4}-\d{2}-\d{2})(/doc-ify)')):if 'href' in link.attrs:#提取href中的url,并规范格式去除分页参数xurl = re.compile(r'(.*?shtml)').search(link.attrs['href']).group(1)sqlQueryUrl="select * from tbl_peng_article where url='%s'"%xurl# print link.attrs['href']result = cur.execute(sqlQueryUrl)conn.commit()if ( result == 0 ):# data = getSinaArticle(url,webname)rs = spiderSinaTech(xurl,webname)if( rs > 0 ):logging.info("----URL has insert into database :%s"%xurl)L.append(xurl)time.sleep( 2 )elif( rs == -1):logging.info("****URL content cannt be understand %s"%xurl)else :logging.info("&&&&URL already in database %s"%xurl)cur.close()conn.close()#如果不为空就返回最后一个url,为空则停止抓取if L:return L[-1]else:return 0logging.info("begin spider sina tech")
url="http://tech.sina.com.cn/it/2017-06-07/doc-ifyfuzny3756083.shtml"
webname="sina"
x = GOSina(url,webname)
if x!= 0:GOSina(x,webname)logging.info("end spider sina tech")


这篇关于python爬虫,抓取新浪科技的文章(beautifulsoup+mysql)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/1034754

相关文章

Python FastAPI实现JWT校验的完整指南

《PythonFastAPI实现JWT校验的完整指南》在现代Web开发中,构建安全的API接口是开发者必须面对的核心挑战之一,本文将深入探讨如何基于FastAPI实现JWT(JSONWebToken... 目录一、JWT认证的核心原理二、项目初始化与环境配置三、安全密码处理机制四、JWT令牌的生成与验证五、

Python使用Turtle实现精确计时工具

《Python使用Turtle实现精确计时工具》这篇文章主要为大家详细介绍了Python如何使用Turtle实现精确计时工具,文中的示例代码讲解详细,具有一定的借鉴价值,有需要的小伙伴可以参考一下... 目录功能特点使用方法程序架构设计代码详解窗口和画笔创建时间和状态显示更新计时器控制逻辑计时器重置功能事件

mysql中的group by高级用法详解

《mysql中的groupby高级用法详解》MySQL中的GROUPBY是数据聚合分析的核心功能,主要用于将结果集按指定列分组,并结合聚合函数进行统计计算,本文给大家介绍mysql中的groupby... 目录一、基本语法与核心功能二、基础用法示例1. 单列分组统计2. 多列组合分组3. 与WHERE结合使

python进行while遍历的常见错误解析

《python进行while遍历的常见错误解析》在Python中选择合适的遍历方式需要综合考虑可读性、性能和具体需求,本文就来和大家讲解一下python中while遍历常见错误以及所有遍历方法的优缺点... 目录一、超出数组范围问题分析错误复现解决方法关键区别二、continue使用问题分析正确写法关键点三

使用Python实现调用API获取图片存储到本地的方法

《使用Python实现调用API获取图片存储到本地的方法》开发一个自动化工具,用于从JSON数据源中提取图像ID,通过调用指定API获取未经压缩的原始图像文件,并确保下载结果与Postman等工具直接... 目录使用python实现调用API获取图片存储到本地1、项目概述2、核心功能3、环境准备4、代码实现

MySQL数据库实现批量表分区完整示例

《MySQL数据库实现批量表分区完整示例》通俗地讲表分区是将一大表,根据条件分割成若干个小表,:本文主要介绍MySQL数据库实现批量表分区的相关资料,文中通过代码介绍的非常详细,需要的朋友可以参考... 目录一、表分区条件二、常规表和分区表的区别三、表分区的创建四、将既有表转换分区表脚本五、批量转换表为分区

宝塔安装的MySQL无法连接的情况及解决方案

《宝塔安装的MySQL无法连接的情况及解决方案》宝塔面板是一款流行的服务器管理工具,其中集成的MySQL数据库有时会出现连接问题,本文详细介绍两种最常见的MySQL连接错误:“1130-Hostisn... 目录一、错误 1130:Host ‘xxx.xxx.xxx.xxx’ is not allowed

8种快速易用的Python Matplotlib数据可视化方法汇总(附源码)

《8种快速易用的PythonMatplotlib数据可视化方法汇总(附源码)》你是否曾经面对一堆复杂的数据,却不知道如何让它们变得直观易懂?别慌,Python的Matplotlib库是你数据可视化的... 目录引言1. 折线图(Line Plot)——趋势分析2. 柱状图(Bar Chart)——对比分析3

Python模拟串口通信的示例详解

《Python模拟串口通信的示例详解》pySerial是Python中用于操作串口的第三方模块,它支持Windows、Linux、OSX、BSD等多个平台,下面我们就来看看Python如何使用pySe... 目录1.win 下载虚www.chinasem.cn拟串口2、确定串口号3、配置串口4、串口通信示例5

Python Pandas高效处理Excel数据完整指南

《PythonPandas高效处理Excel数据完整指南》在数据驱动的时代,Excel仍是大量企业存储核心数据的工具,Python的Pandas库凭借其向量化计算、内存优化和丰富的数据处理接口,成为... 目录一、环境搭建与数据读取1.1 基础环境配置1.2 数据高效载入技巧二、数据清洗核心战术2.1 缺失