python yellow page thread crawler

2023-10-09 22:09

本文主要是介绍python yellow page thread crawler,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

把之前的爬虫用python改写了,多线程和队列 来抓取,典型的生产者消费者模式 大笑,用mvc分层来写的抓狂
 
#-*- coding: utf-8 -*-'''
spider.py
Created on 2013-12-21http://www.cn360cn.com/news.aspx?pageno=2
@author: Administrator
'''
import Pager
import Queue
import sys
import time
import threadingtask_queue = Queue.Queue(10)class ProducerThread(threading.Thread):def __init__(self,threadname):threading.Thread.__init__(self)self.name = threadnamedef run(self):for page in xrange(1,50000):url = 'http://www.cn360cn.com/news.aspx?pageno=%d' % pagetask_queue.put(url)print "put %s " % urlclass ConsumerThread(threading.Thread):name = ''url = ''def __init__(self,threadname):threading.Thread.__init__(self)self.name = threadnamedef run(self):while 1:print self.namepage = Pager.Pager()url = task_queue.get()print "get %s " % urltry:page.get_html(url)except Exception as e:print "exception occurred : " , efinally:task_queue.task_done()#控制速度time.sleep(0.5)print "start crawing ...."producer = ProducerThread("crawler producer ....")
producer.setDaemon(True)
producer.start()thread_num = 60
threads = []
for num in xrange(thread_num):print "crawler consumer : %d " % numthreads.append(ConsumerThread("crawler consumer : %d " % num))for num in xrange(thread_num):threads[num].setDaemon(True)threads[num].start()#只到所有任务完成后,才退出主程序
task_queue.join()print "finished ...."
HttpClient.py
# -*- coding:utf-8 -*-import urllib,urllib2class HttpClient:user_agent = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/31.0.1650.63 Safari/537.36'proxy = ''def __init__(self):urllib2.socket.setdefaulttimeout(8) # timeoutpassdef set_ua(self,user_agent):self.user_agent = user_agentdef set_proxy(self,proxy):self.proxy = proxydef get(self,url,data = {}):headers = { 'User-Agent' : self.user_agent,'Referer': 'http://www.cn360cn.com/','Host':'www.cn360cn.com'}data = urllib.urlencode(data)req = urllib2.Request(url, data, headers)    response = urllib2.urlopen(req)    response = response.read() return responseif __name__ == '__main__':c = HttpClient()print c.get("http://blog.csdn.net/pleasecallmewhy/article/details/8923067")   pager.py
# -*_ coding: utf-8 -*-
'''
Created on 2013-12-21@author: Administrator
'''
import HttpClient
import re
import Daoclass Pager:client = ''dao = ''def __init__(self):self.client = HttpClient.HttpClient()self.dao = Dao.Mysql()passdef get_html(self,url):html = self.client.get(url)#gb2312 to unicode to utf8html = html.decode('gb2312', 'ignore').encode('utf-8')
#        print htmlself.parse_html(html)def parse_html(self,html):page_pattern = re.compile(r'<li>\s*<a.*?>(.*?)<\/a>\s*<div\s+class=tel\s*>\s*电话:(.*?)地址:(.*?)<\/div>\s*<\/li>', re.I | re.M)
#        page_pattern = re.compile(r'<li>\s*<a.*?>(.*?)<\/a>\s*<div\s+class=tel\s*>\s*(.*?)<\/div>\s*<\/li>', re.I | re.M)result =  page_pattern.findall(html)for item in result:
#            print item[0],',',item[1],',',item[2]tag, number, address = item[0],item[1],item[2]number = number.strip()number = number.replace("-", "")tag = tag.strip()address = address.strip()temp = {'tag':tag,'number':number,'address':address}result = self.dao.insert(temp)if __name__ == '__main__':page = Pager()url = 'http://www.cn360cn.com/news.aspx?pageno=2'page.get_html(url)   
Dao.py
'''
Created on 2013-7-20@author: Administrator
'''
import MySQLdb
import config;
import sysclass Mysql:table = 'cn360'conn = ''def __init__(self):self.conn = MySQLdb.connect(host=config.conf['host'], user= config.conf['user'],passwd=config.conf['pwd'],db=config.conf['db'],charset=config.conf['charset'])self.cursor = self.conn.cursor();def insert(self, data):if not data:return Falsesql = "insert ignore into " + self.table + " set "for k, v in enumerate(data):sql += v + "='" + MySQLdb.escape_string(data[v]) + "',"sql = sql.strip(',')
#        print sqlreturn self.execute(sql)def execute(self, sql):if not sql:return Falsetry:self.cursor.execute(sql)self.conn.commit()except:self.conn.rollback();return Falsereturn Truedef get_rows(self, sql):if not sql:return Falseresult = self.execute(sql)if result:return self.cursor.fetchall()return Falsedef update(self, source, filter_array = None):if not source:return Falsesql = "update " + self.table + " set "for k, v in enumerate(source):sql += v + "='" + MySQLdb.escape_string(source[v]) + "',"sql = sql.strip(',')if filter_array:where = ''for k, v in enumerate(filter_array):where += v + "='" + MySQLdb.escape_string(filter_array[v]) + "',"where = where.strip(',')if where:sql += " where " + whereprint sqlreturn self.execute(sql)def delete(self, filter_array = None):if not filter_array:return Falsesql = "delete from " + self.tableif filter_array:where = ''for k, v in enumerate(filter_array):where += v + "='" + MySQLdb.escape_string(filter_array[v]) + "',"where = where.strip(',')if where:sql += " where " + whereprint sqlreturn self.execute(sql)def destroy(self):        self.conn = Noneself.cursor = None


这篇关于python yellow page thread crawler的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/175885

相关文章

Python实现网格交易策略的过程

《Python实现网格交易策略的过程》本文讲解Python网格交易策略,利用ccxt获取加密货币数据及backtrader回测,通过设定网格节点,低买高卖获利,适合震荡行情,下面跟我一起看看我们的第一... 网格交易是一种经典的量化交易策略,其核心思想是在价格上下预设多个“网格”,当价格触发特定网格时执行买

Python标准库之数据压缩和存档的应用详解

《Python标准库之数据压缩和存档的应用详解》在数据处理与存储领域,压缩和存档是提升效率的关键技术,Python标准库提供了一套完整的工具链,下面小编就来和大家简单介绍一下吧... 目录一、核心模块架构与设计哲学二、关键模块深度解析1.tarfile:专业级归档工具2.zipfile:跨平台归档首选3.

使用Python构建智能BAT文件生成器的完美解决方案

《使用Python构建智能BAT文件生成器的完美解决方案》这篇文章主要为大家详细介绍了如何使用wxPython构建一个智能的BAT文件生成器,它不仅能够为Python脚本生成启动脚本,还提供了完整的文... 目录引言运行效果图项目背景与需求分析核心需求技术选型核心功能实现1. 数据库设计2. 界面布局设计3

Python进行JSON和Excel文件转换处理指南

《Python进行JSON和Excel文件转换处理指南》在数据交换与系统集成中,JSON与Excel是两种极为常见的数据格式,本文将介绍如何使用Python实现将JSON转换为格式化的Excel文件,... 目录将 jsON 导入为格式化 Excel将 Excel 导出为结构化 JSON处理嵌套 JSON:

Python操作PDF文档的主流库使用指南

《Python操作PDF文档的主流库使用指南》PDF因其跨平台、格式固定的特性成为文档交换的标准,然而,由于其复杂的内部结构,程序化操作PDF一直是个挑战,本文主要为大家整理了Python操作PD... 目录一、 基础操作1.PyPDF2 (及其继任者 pypdf)2.PyMuPDF / fitz3.Fre

python设置环境变量路径实现过程

《python设置环境变量路径实现过程》本文介绍设置Python路径的多种方法:临时设置(Windows用`set`,Linux/macOS用`export`)、永久设置(系统属性或shell配置文件... 目录设置python路径的方法临时设置环境变量(适用于当前会话)永久设置环境变量(Windows系统

python中列表应用和扩展性实用详解

《python中列表应用和扩展性实用详解》文章介绍了Python列表的核心特性:有序数据集合,用[]定义,元素类型可不同,支持迭代、循环、切片,可执行增删改查、排序、推导式及嵌套操作,是常用的数据处理... 目录1、列表定义2、格式3、列表是可迭代对象4、列表的常见操作总结1、列表定义是处理一组有序项目的

python运用requests模拟浏览器发送请求过程

《python运用requests模拟浏览器发送请求过程》模拟浏览器请求可选用requests处理静态内容,selenium应对动态页面,playwright支持高级自动化,设置代理和超时参数,根据需... 目录使用requests库模拟浏览器请求使用selenium自动化浏览器操作使用playwright

python使用try函数详解

《python使用try函数详解》Pythontry语句用于异常处理,支持捕获特定/多种异常、else/final子句确保资源释放,结合with语句自动清理,可自定义异常及嵌套结构,灵活应对错误场景... 目录try 函数的基本语法捕获特定异常捕获多个异常使用 else 子句使用 finally 子句捕获所

Python极速搭建局域网文件共享服务器完整指南

《Python极速搭建局域网文件共享服务器完整指南》在办公室或家庭局域网中快速共享文件时,许多人会选择第三方工具或云存储服务,但这些方案往往存在隐私泄露风险或需要复杂配置,下面我们就来看看如何使用Py... 目录一、android基础版:HTTP文件共享的魔法命令1. 一行代码启动HTTP服务器2. 关键参