Python高级进阶--多线程爬取下载小说(基于笔趣阁的爬虫程序)

本文主要是介绍Python高级进阶--多线程爬取下载小说(基于笔趣阁的爬虫程序),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

一、前言

1、写在前面

2、本帖内容

 二、编写代码

1、抓包分析

a、页面分析

b、明确需求

c、抓包搜寻

2、编写爬虫代码

a、获取网页源代码

b、提取所有章节的网页源代码

c、下载每个章节的小说

d、 清洗文件名

e、删除子文件夹

f、将下载的小说的所有txt文件夹放入所创建的文件夹路径

g、多线程下载

3、所有代码

 三、后言

1、报错情况

2、线程不是越多越好

3、想要下载自己喜欢的小说

4、如何快速调试代码

5、建议 


一、前言

1、写在前面

        本帖采用了多线程的技术来加快爬虫的下载速度,对多线程不了解的同学可以自行百度或者关注本博主,博主后续将会出一篇详细的帖子来介绍多线程。此外,本帖还采用了正则表达式、Python的文件操作和xPath分析。不了解的小伙伴们也可以自行百度或者关注本博主,后续都会写几篇详细的帖子进行介绍!!!

2、本帖内容

        笔趣阁(新笔趣阁_书友最值得收藏的网络小说阅读网 - TXT下载网)是一个资源丰富的小说网站,里面的小说全部免费。因此,对其的爬取比较简单,不需要用逆向技术。对其的爬取,仅仅只需url,header请求头中的任何信息都用不上。本文详细讲解爬取里面的一本免费小说--《NBA:开局一张三分体验卡》,读者可以根据本帖,修改部分代码,爬取自己想要的小说。

笔趣阁现已更新为新笔趣阁,其首页:

   本帖爬取的小说为《NBA:开局一张三分体验卡》(https://www.shuangliusc.com/html/469472/),其界面为:

 二、编写代码

1、抓包分析

        爬虫的第一步都是抓包分析(也就是分析网页,从网页源代码中找到自己想要的内容)。 

a、页面分析

(1)页面中有最新章节目录和所有章节目录(这里只需要所有章节目录!)

(2)点击一个章节就会跳转到其具体页面,但其小说内容可能只是该章节的第一部分(一个章节可能存在两至三个部分的小说!)

(3)在一个章节的具体页面中存在下一页,点击下一页会跳转到该章节的下一个部分(这样可以实现获取同一个章节的所有内容!)

(4)直到该章节的最后一个部分,下一页就会变成下一章(这意味着当一个章节的所有部分的小说内容被爬取完后,将不会有下一页,获取下一页的url的列表变空。可以通过此来判断是否爬取完毕一个章节的所有内容!)

目录页:

具体章节页:

b、明确需求

        根据以上页面分析,分析网页源代码,找到以下需求。 

  • 要获取到目录页中所有章节的链接
  • 要获取到下一页链接
  • 要找到小说内容所在网页源代码的所在位置
  • 要找到小说章节标题所在网页源代码的所在位置
  • 同一章节的小说内容放在一个txt文档中
  • 为加快速度,采取多线程爬取下载

c、抓包搜寻

        根据以上需求,分析网页源代码,找到想要的内容。 

步骤:

  1. 在目录页面,按下F12,打开开发者界面
  2. 点击开发者界面左上角的鼠标箭头
  3. 将箭头移到所有章节部分的一个章节上并点击一下
  4. 在开发者界面将会出现此部分的网页源代码

          通过以上步骤,抓包寻找,可以分别找到需求部分所要内容:  

  • 要获取到目录页中所有章节的链接及标题所在源代码的位置
  • 要获取到下一页链接

  • 具体章节内容的标题

2、编写爬虫代码

        根据上面的抓包分析,可以编写爬虫代码。

具体思路: 

  1. 获取目录也中所有章节的源代码
  2. 获取具体章节的小说内容和标题
  3. 将获取到的小说内容根据顺序摆放下载到一个txt文档中
  4. 获取到下一页的链接
  5. 将同一章节的内容合并到一个txt文档中
  6. 采取多线程下载
  7. 最后以一个文件夹保存
  8. 文件名不能存在特殊字符,需要进行清洗

 a、获取网页源代码

import os.path
from lxml import etree
import requests
# 1、获取小说目录页的网页源代码
index_url = 'https://www.shuangliusc.com/html/555664/'
r = requests.get(index_url, headers=header)

 b、提取所有章节的网页源代码

def gen_urls(index_url, q,p):# 定义全局变量,gen_urls_done用于判断小说是否下载完成global gen_urls_doner = requests.get(url=index_url)# 获取目录页的各个目录及其标题html = etree.HTML(r.text)links = html.xpath('//div[@class="section-box"]//ul[@id="section-list"]//a/@href')titles = html.xpath('//div[@class="section-box"]//ul[@id="section-list"]//a/text()')# 将标题装入一个队列中,为了下载时可以保持顺序,不会乱章for title in titles:p.put(title)# 将链接装入另一个队列,为了下载时可以保持顺序,不会乱章for link in links:link = regular_link + linkq.put(link)# 所有链接都已获取完毕并装入队列中gen_urls_done = True

c、下载每个章节的小说

def download_file(q,p):while True:# 链接队列为空且gen_urls_done为真时,下载完成if q.empty() and gen_urls_done:print("小说已全部下载完成...")breakelse:# 获取队列的第一个链接和标题cur_url  = q.get()file_name = p.get()# 清洗文件名file_name = clean_filename(file_name)# 采取当前时间作为文件夹保存同一章节下载的小说内容# 设置源文件夹和目标文件夹# 定义父文件夹路径base_folder = r'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说'# 获取当前时间now = time.perf_counter()# 格式化时间字符串,例如 "2024-02-11_031559"folder_name = str(now)# 根据需求更改路径,这里使用之前定义的父文件夹路径source_folder = os.path.join(base_folder, folder_name)# 创建文件夹try:# 使用exist_ok=True避免目录已存在的异常os.makedirs(source_folder, exist_ok=True)except Exception as e:print(f"文件创建错误: {e}")# 将同一章节的小说内容和标题全都下载到一个txt文档中while True:# 获取具体章节的小说内容和标题,并将其放入一个txt文档中# 如何将同一章节的所有内容合并到一个txt文档?# 思路:将同一章节获取到的每部分的内容都保存在同一个文件夹(以当前时间命名)中# 再将该文件夹中的所有txt文档合并该文件夹的上一级文件夹中以该章节名进行命名的txt文档中# 最后删除这些文件夹(以当前时间命名)r = requests.get(cur_url)html = etree.HTML(r.text)next_page = html.xpath('//div[@class="section-opt m-bottom-opt"]//a[text()="下一页"]/@href')content = html.xpath('//div[@class="container"]//div[@class="content"]/text()')# 去掉小说内容中的特殊字符content = "".join(content).replace('\xa0','\n').strip()# 将章节的标题的特殊字符进行去除title = html.xpath('//h1[@class="title"]/text()')[0]title = clean_filename(title)# 下载小说内容with open(f'{source_folder}/{title}.txt', 'a',encoding='utf-8') as f:f.write(title+'\n\n')f.write(content+'\n\n')print(f'{threading.current_thread().name}已完成...{title}的下载')# 如果下一页的链接不存在,则跳出。也就是该章节的所有部分均已下载完毕!if len(next_page) == 0:break# 获取下一页的内容next_page = regular_link + next_page[0]cur_url = next_page# 将同一章节中的内容合并到一个txt文档中target_folder = "C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说"# 指定合并后的文件名(确保该文件不存在于temp文件夹内,避免被删除)combined_file_path = os.path.join(target_folder, f'{file_name}.txt')# 确保目标文件夹存在os.makedirs(target_folder, exist_ok=True)# 遍历文件夹中的所有.txt文件with open(combined_file_path, 'w', encoding='utf-8') as combined_file:for filename in os.listdir(source_folder):file_path = os.path.join(source_folder, filename)# 如果是文件且后缀是.txt就进行处理if os.path.isfile(file_path) and filename.endswith('.txt'):with open(file_path, 'r', encoding='utf-8') as file:combined_file.write(file.read() + '\n')  # 将内容写入合并的文件os.remove(file_path)  # 删除已经合并的文件

d、 清洗文件名

def clean_filename(filename):# 以下正则表达式匹配有效的文件名字符,包括中文、英文、数字以及“-_(). ”# 可以继续加入任何其他可接受的字符pattern = re.compile(r'[^a-zA-Z0-9\u4e00-\u9fa5\-\_\.\(\)\s]')cleaned_filename = re.sub(pattern, '', filename)return cleaned_filename

e、删除子文件夹

# 删除子文件夹
def move_off():parent_folder_path = 'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说'# 检查文件夹是否存在if os.path.exists(parent_folder_path):# 遍历该文件夹for entry in os.listdir(parent_folder_path):# 构建完整的文件/文件夹路径full_path = os.path.join(parent_folder_path, entry)# 检查这个路径是否是一个文件夹if os.path.isdir(full_path):# 删除文件夹shutil.rmtree(full_path)print(f"子文件夹 '{full_path}' 已被删除。")else:print(f"父文件夹 '{parent_folder_path}' 不存在。")

f、将下载的小说的所有txt文件夹放入所创建的文件夹路径

def combine_file():# 指定源文件夹路径source_folder_path = 'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说'# 指定目标文件夹路径target_folder_path = 'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说/nba开局一张三分体验卡'  # 你要移动到的新文件夹路径# 检查目标文件夹是否存在,如果不存在,则创建它if not os.path.exists(target_folder_path):os.makedirs(target_folder_path)# 遍历源文件夹for entry in os.listdir(source_folder_path):# 检查文件扩展名是否为.txtif entry.lower().endswith('.txt'):# 构建完整的文件路径full_file_path = os.path.join(source_folder_path, entry)# 构建目标文件路径target_file_path = os.path.join(target_folder_path, entry)# 移动文件shutil.move(full_file_path, target_file_path)# 输出完成的消息print(f"所有的.txt文件已经从'{source_folder_path}'移动到'{target_folder_path}'。")

g、多线程下载

# 主线程
def main():# th1是获取链接index_url = 'https://www.shuangliusc.com/html/555664/'q = Queue(maxsize=2500)p = Queue(maxsize=2500)th1 = threading.Thread(target=gen_urls, args=(index_url, q, p))th1.start()threads = [th1]# th2是下载小说,采取循环的方式,一共有20个线程执行下载小说for i in range(20):th2 = threading.Thread(target=download_file,args=(q, p),name=f"线程{i}")th2.start()threads.append(th2)# 等待上面所有的线程完成for thread in threads:thread.join()# 以上所有线程完成后调用move_off,此处可以不用线程,直接调用函数也可,但速度太慢。# 注:此处由于使用的是多线程操作,存在多个线程对一个文件夹进行操作,以至于报错,但不影响最后需要的结果# 报错是因为一个文件夹已经被一个线程操作完了,而另一个线程也想对其操作但找不到该文件夹,以至于报错。threads2 = []for i in range(10):th3 = threading.Thread(target=move_off)th3.start()threads2.append(th3)for thread in threads2:thread.join()# 所有线程完成后,执行combine_file函数combine_file()
if __name__ == '__main__':main()

3、所有代码

注:此代码存在一点问题,请看后言的建议部分!!!

import os
import pprint
import queue
import re
import shutil
import string
import threading
import time
import requests
from lxml import etree
from  queue import Queue
import os
from datetime import datetime
lock = threading.Lock()
# 固定链接
regular_link = 'https://www.shuangliusc.com'
gen_urls_done = False
# 清洗文件名
def clean_filename(filename):# 以下正则表达式匹配有效的文件名字符,包括中文、英文、数字以及“-_(). ”# 可以继续加入任何其他可接受的字符pattern = re.compile(r'[^a-zA-Z0-9\u4e00-\u9fa5\-\_\.\(\)\s]')cleaned_filename = re.sub(pattern, '', filename)return cleaned_filename
# 1、获取目录页中的各个目录的链接
# 需要小说目录的链接和一个装各个目录的链接的队列
def gen_urls(index_url, q,p):# 装入全局变量global gen_urls_doner = requests.get(url=index_url)# 获取目录页的各个目录及其标题html = etree.HTML(r.text)links = html.xpath('//div[@class="section-box"]//ul[@id="section-list"]//a/@href')titles = html.xpath('//div[@class="section-box"]//ul[@id="section-list"]//a/text()')# 将标题装入一个队列中for title in titles:p.put(title)# 将链接装入队列,为了下载时可以保持顺序,不会乱章for link in links:link = regular_link + linkq.put(link)# 所有链接都已获取完毕并装入队列中gen_urls_done = True
# 下载该章节
# 传入下载链接和章节名称的队列,以及下载路径
def download_file(q,p):while True:# 链接队列为空且gen_urls_done为真时,下载完成if q.empty() and gen_urls_done:print("小说已全部下载完成...")breakelse:# 获取队列的第一个链接和标题cur_url  = q.get()file_name = p.get()# 清洗文件名file_name = clean_filename(file_name)# 采取当前时间作为文件夹保存同一章节下载的小说内容# 设置源文件夹和目标文件夹# 定义父文件夹路径base_folder = r'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说'# 获取当前时间now = time.perf_counter()# 格式化时间字符串,例如 "2024-02-11_031559"folder_name = str(now)# 根据需求更改路径,这里使用之前定义的父文件夹路径source_folder = os.path.join(base_folder, folder_name)# 创建文件夹try:# 使用exist_ok=True避免目录已存在的异常os.makedirs(source_folder, exist_ok=True)except Exception as e:print(f"文件创建错误: {e}")# 将同一章节的小说内容和标题全都下载到一个txt文档中while True:# 获取具体章节的小说内容和标题,并将其放入一个txt文档中# 如何将同一章节的所有内容合并到一个txt文档?# 思路:将同一章节获取到的每部分的内容都保存在同一个文件夹(以当前时间命名)中# 再将该文件夹中的所有txt文档合并该文件夹的上一级文件夹中以该章节名进行命名的txt文档中# 最后删除这些文件夹(以当前时间命名)r = requests.get(cur_url)html = etree.HTML(r.text)next_page = html.xpath('//div[@class="section-opt m-bottom-opt"]//a[text()="下一页"]/@href')content = html.xpath('//div[@class="container"]//div[@class="content"]/text()')# 去掉小说内容中的特殊字符content = "".join(content).replace('\xa0','\n').strip()# 将章节的标题的特殊字符进行去除title = html.xpath('//h1[@class="title"]/text()')[0]title = clean_filename(title)# 下载小说内容with open(f'{source_folder}/{title}.txt', 'a',encoding='utf-8') as f:f.write(title+'\n\n')f.write(content+'\n\n')print(f'{threading.current_thread().name}已完成...{title}的下载')# 如果下一页的链接不存在,则跳出。也就是该章节的所有部分均已下载完毕!if len(next_page) == 0:break# 获取下一页的内容next_page = regular_link + next_page[0]cur_url = next_page# 将同一章节中的内容合并到一个txt文档中target_folder = "C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说"# 指定合并后的文件名(确保该文件不存在于temp文件夹内,避免被删除)combined_file_path = os.path.join(target_folder, f'{file_name}.txt')# 确保目标文件夹存在os.makedirs(target_folder, exist_ok=True)# 遍历文件夹中的所有.txt文件with open(combined_file_path, 'w', encoding='utf-8') as combined_file:for filename in os.listdir(source_folder):file_path = os.path.join(source_folder, filename)# 如果是文件且后缀是.txt就进行处理if os.path.isfile(file_path) and filename.endswith('.txt'):with open(file_path, 'r', encoding='utf-8') as file:combined_file.write(file.read() + '\n')  # 将内容写入合并的文件os.remove(file_path)  # 删除已经合并的文件
# 删除子文件夹
def move_off():parent_folder_path = 'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说'# 检查文件夹是否存在if os.path.exists(parent_folder_path):# 遍历该文件夹for entry in os.listdir(parent_folder_path):# 构建完整的文件/文件夹路径full_path = os.path.join(parent_folder_path, entry)# 检查这个路径是否是一个文件夹if os.path.isdir(full_path):# 删除文件夹shutil.rmtree(full_path)print(f"子文件夹 '{full_path}' 已被删除。")else:print(f"父文件夹 '{parent_folder_path}' 不存在。")
def combine_file():# 指定源文件夹路径source_folder_path = 'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说'# 指定目标文件夹路径target_folder_path = 'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说/nba开局一张三分体验卡'  # 你要移动到的新文件夹路径# 检查目标文件夹是否存在,如果不存在,则创建它if not os.path.exists(target_folder_path):os.makedirs(target_folder_path)# 遍历源文件夹for entry in os.listdir(source_folder_path):# 检查文件扩展名是否为.txtif entry.lower().endswith('.txt'):# 构建完整的文件路径full_file_path = os.path.join(source_folder_path, entry)# 构建目标文件路径target_file_path = os.path.join(target_folder_path, entry)# 移动文件shutil.move(full_file_path, target_file_path)# 输出完成的消息print(f"所有的.txt文件已经从'{source_folder_path}'移动到'{target_folder_path}'。")
# 主线程
def main():# th1是获取链接index_url = 'https://www.shuangliusc.com/html/555664/'q = Queue(maxsize=2500)p = Queue(maxsize=2500)th1 = threading.Thread(target=gen_urls, args=(index_url, q, p))th1.start()threads = [th1]# th2是下载小说,采取循环的方式,一共有20个线程执行下载小说for i in range(20):th2 = threading.Thread(target=download_file,args=(q, p),name=f"线程{i}")th2.start()threads.append(th2)# 等待上面所有的线程完成for thread in threads:thread.join()# 以上所有线程完成后调用move_off,此处可以不用线程,直接调用函数也可,但速度太慢。# 注:此处由于使用的是多线程操作,存在多个线程对一个文件夹进行操作,以至于报错,但不影响最后需要的结果# 报错是因为一个文件夹已经被一个线程操作完了,而另一个线程也想对其操作但找不到该文件夹,以至于报错。threads2 = []for i in range(10):th3 = threading.Thread(target=move_off)th3.start()threads2.append(th3)for thread in threads2:thread.join()# 所有线程完成后,执行combine_file函数combine_file()
if __name__ == '__main__':main()

部分运行结果截图:

 

 三、后言

1、报错情况

        因为此处采取多线程下载,容易出现多个线程对一个任务进行操作。一旦某个线程完成了对该任务的操作,该任务资源将会得到释放,则其他线程会因找不到对该操作的资源而进行报错。在运行过程中经常会看到报错情况,但这个是不要紧的,它不影响最终结果。这是由于代码没有进行更深一步的优化而引起的。

2、线程不是越多越好

        采取多线程会加快下载速度,但也不是线程越多越好。这要看个人电脑的CPU来决定线程的数量。一旦线程加多了,CPU因运转不够来而导致宕机,那就得不偿失了。博主采用小新系列的轻薄本,采用了30个线程就已经快跑到了CPU的极限了!请读者下载前自己测试一下自己的电脑可以跑多少个线程而不会超出CPU的负担,找到一个合适的值!!!

如何增加减少线程数量? 只需要修改一下所框选的数字即可!(数字表示采用多少个线程运行)

3、想要下载自己喜欢的小说

         需要进行以下操作:

  1. 找到自己喜欢的小说的目录页(不太情况的,可以看上面的截图)
  2. 将代码中的index_url改成你喜欢的小说的目录页
  3. 抓包分析一下,所需要的部分是否可以用以上的xPath提取到。不可以的话,进行修改
  4. 将文件的路径进行修改

4、如何快速调试代码

        由于下载的小说《NBA:开局一张三分体验卡》有2300多章,想要快速验证调试代码是否存在问题。可以将以下部分进行修改:不选择下载2300多章,可以定义想要下载多少章。

5、建议 

        在所有代码中,可以实现下载整本小说的所有章节。但由于章节数量过多,在下载线程跑完后,卡死在了删除多余的文件夹的多线程和移动txt文档的的函数中。如果要实现小数量(大约500章)可以快速的完成,但要实现大数量的下载,建议采取两个Python文件进行运行,一个跑下载小说,一个跑文件操作。当运行小说下载的Python程序完毕后,再去运行文件操作的Python!!!

 下载小说的Python程序

import os
import pprint
import queue
import re
import shutil
import string
import threading
import time
import requests
from lxml import etree
from  queue import Queue
import os
from datetime import datetime
lock = threading.Lock()
# 固定链接
regular_link = 'https://www.shuangliusc.com'
gen_urls_done = False
# 清洗文件名
def clean_filename(filename):# 以下正则表达式匹配有效的文件名字符,包括中文、英文、数字以及“-_(). ”# 可以继续加入任何其他可接受的字符pattern = re.compile(r'[^a-zA-Z0-9\u4e00-\u9fa5\-\_\.\(\)\s]')cleaned_filename = re.sub(pattern, '', filename)return cleaned_filename
# 1、获取目录页中的各个目录的链接
# 需要小说目录的链接和一个装各个目录的链接的队列
def gen_urls(index_url, q,p):# 装入全局变量global gen_urls_doner = requests.get(url=index_url)# 获取目录页的各个目录及其标题html = etree.HTML(r.text)links = html.xpath('//div[@class="section-box"]//ul[@id="section-list"]//a/@href')titles = html.xpath('//div[@class="section-box"]//ul[@id="section-list"]//a/text()')# 将标题装入一个队列中for title in titles:p.put(title)# 将链接装入队列,为了下载时可以保持顺序,不会乱章for link in links:link = regular_link + linkq.put(link)# 所有链接都已获取完毕并装入队列中gen_urls_done = True
# 下载该章节
# 传入下载链接和章节名称的队列,以及下载路径
def download_file(q,p):while True:# 链接队列为空且gen_urls_done为真时,下载完成if q.empty() and gen_urls_done:print("小说已全部下载完成...")breakelse:# 获取队列的第一个链接和标题cur_url  = q.get()file_name = p.get()# 清洗文件名file_name = clean_filename(file_name)# 采取当前时间作为文件夹保存同一章节下载的小说内容# 设置源文件夹和目标文件夹# 定义父文件夹路径base_folder = r'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说'# 获取当前时间now = time.perf_counter()# 格式化时间字符串,例如 "2024-02-11_031559"folder_name = str(now)# 根据需求更改路径,这里使用之前定义的父文件夹路径source_folder = os.path.join(base_folder, folder_name)# 创建文件夹try:# 使用exist_ok=True避免目录已存在的异常os.makedirs(source_folder, exist_ok=True)except Exception as e:print(f"文件创建错误: {e}")# 将同一章节的小说内容和标题全都下载到一个txt文档中while True:# 获取具体章节的小说内容和标题,并将其放入一个txt文档中# 如何将同一章节的所有内容合并到一个txt文档?# 思路:将同一章节获取到的每部分的内容都保存在同一个文件夹(以当前时间命名)中# 再将该文件夹中的所有txt文档合并该文件夹的上一级文件夹中以该章节名进行命名的txt文档中# 最后删除这些文件夹(以当前时间命名)r = requests.get(cur_url)html = etree.HTML(r.text)next_page = html.xpath('//div[@class="section-opt m-bottom-opt"]//a[text()="下一页"]/@href')content = html.xpath('//div[@class="container"]//div[@class="content"]/text()')# 去掉小说内容中的特殊字符content = "".join(content).replace('\xa0','\n').strip()# 将章节的标题的特殊字符进行去除title = html.xpath('//h1[@class="title"]/text()')[0]title = clean_filename(title)# 下载小说内容with open(f'{source_folder}/{title}.txt', 'a',encoding='utf-8') as f:f.write(title+'\n\n')f.write(content+'\n\n')print(f'{threading.current_thread().name}已完成...{title}的下载')# 如果下一页的链接不存在,则跳出。也就是该章节的所有部分均已下载完毕!if len(next_page) == 0:break# 获取下一页的内容next_page = regular_link + next_page[0]cur_url = next_page# 将同一章节中的内容合并到一个txt文档中target_folder = "C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说"# 指定合并后的文件名(确保该文件不存在于temp文件夹内,避免被删除)combined_file_path = os.path.join(target_folder, f'{file_name}.txt')# 确保目标文件夹存在os.makedirs(target_folder, exist_ok=True)# 遍历文件夹中的所有.txt文件with open(combined_file_path, 'w', encoding='utf-8') as combined_file:for filename in os.listdir(source_folder):file_path = os.path.join(source_folder, filename)# 如果是文件且后缀是.txt就进行处理if os.path.isfile(file_path) and filename.endswith('.txt'):with open(file_path, 'r', encoding='utf-8') as file:combined_file.write(file.read() + '\n')  # 将内容写入合并的文件os.remove(file_path)  # 删除已经合并的文件
# 主线程
def main():# th1是获取链接index_url = 'https://www.shuangliusc.com/html/555664/'q = Queue(maxsize=2500)p = Queue(maxsize=2500)th1 = threading.Thread(target=gen_urls, args=(index_url, q, p))th1.start()# th2是下载小说,采取循环的方式,一共有20个线程执行下载小说for i in range(20):th2 = threading.Thread(target=download_file,args=(q, p),name=f"线程{i}")th2.start()
if __name__ == '__main__':main()

进行文件操作的Python程序

import shutil
import threading
import time
import requests
from lxml import etree
from  queue import Queue
import os
def move_off():parent_folder_path = "C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说"# 检查文件夹是否存在if os.path.exists(parent_folder_path):# 遍历该文件夹for entry in os.listdir(parent_folder_path):# 构建完整的文件/文件夹路径full_path = os.path.join(parent_folder_path, entry)# 检查这个路径是否是一个文件夹if os.path.isdir(full_path):# 删除文件夹shutil.rmtree(full_path)print(f"子文件夹 '{full_path}' 已被删除。")else:print(f"父文件夹 '{parent_folder_path}' 不存在。")
def combine_file():# 指定源文件夹路径source_folder_path = 'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说'# 指定目标文件夹路径target_folder_path = 'C:/Users/Lenovo/Desktop/爬虫学习/学习/多线程爬取笔趣阁小说/下载的小说/nba开局一张三分体验卡'  # 你要移动到的新文件夹路径# 检查目标文件夹是否存在,如果不存在,则创建它if not os.path.exists(target_folder_path):os.makedirs(target_folder_path)# 遍历源文件夹for entry in os.listdir(source_folder_path):# 检查文件扩展名是否为.txtif entry.lower().endswith('.txt'):# 构建完整的文件路径full_file_path = os.path.join(source_folder_path, entry)# 构建目标文件路径target_file_path = os.path.join(target_folder_path, entry)# 移动文件shutil.move(full_file_path, target_file_path)# 输出完成的消息print(f"所有的.txt文件已经从'{source_folder_path}'移动到'{target_folder_path}'。")
# 主线程
def main():threads2 = []for i in range(20):th3 = threading.Thread(target=move_off)th3.start()threads2.append(th3)for thread in threads2:thread.join()# 所有线程完成后,执行combine_file函数combine_file()
if __name__ == '__main__':main()

注:本帖用于学习交流,禁止商用!!!

这篇关于Python高级进阶--多线程爬取下载小说(基于笔趣阁的爬虫程序)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/703862

相关文章

SQL server数据库如何下载和安装

《SQLserver数据库如何下载和安装》本文指导如何下载安装SQLServer2022评估版及SSMS工具,涵盖安装配置、连接字符串设置、C#连接数据库方法和安全注意事项,如混合验证、参数化查... 目录第一步:打开官网下载对应文件第二步:程序安装配置第三部:安装工具SQL Server Manageme

使用Python删除Excel中的行列和单元格示例详解

《使用Python删除Excel中的行列和单元格示例详解》在处理Excel数据时,删除不需要的行、列或单元格是一项常见且必要的操作,本文将使用Python脚本实现对Excel表格的高效自动化处理,感兴... 目录开发环境准备使用 python 删除 Excphpel 表格中的行删除特定行删除空白行删除含指定

golang程序打包成脚本部署到Linux系统方式

《golang程序打包成脚本部署到Linux系统方式》Golang程序通过本地编译(设置GOOS为linux生成无后缀二进制文件),上传至Linux服务器后赋权执行,使用nohup命令实现后台运行,完... 目录本地编译golang程序上传Golang二进制文件到linux服务器总结本地编译Golang程序

Python通用唯一标识符模块uuid使用案例详解

《Python通用唯一标识符模块uuid使用案例详解》Pythonuuid模块用于生成128位全局唯一标识符,支持UUID1-5版本,适用于分布式系统、数据库主键等场景,需注意隐私、碰撞概率及存储优... 目录简介核心功能1. UUID版本2. UUID属性3. 命名空间使用场景1. 生成唯一标识符2. 数

Python办公自动化实战之打造智能邮件发送工具

《Python办公自动化实战之打造智能邮件发送工具》在数字化办公场景中,邮件自动化是提升工作效率的关键技能,本文将演示如何使用Python的smtplib和email库构建一个支持图文混排,多附件,多... 目录前言一、基础配置:搭建邮件发送框架1.1 邮箱服务准备1.2 核心库导入1.3 基础发送函数二、

Javaee多线程之进程和线程之间的区别和联系(最新整理)

《Javaee多线程之进程和线程之间的区别和联系(最新整理)》进程是资源分配单位,线程是调度执行单位,共享资源更高效,创建线程五种方式:继承Thread、Runnable接口、匿名类、lambda,r... 目录进程和线程进程线程进程和线程的区别创建线程的五种写法继承Thread,重写run实现Runnab

Python包管理工具pip的升级指南

《Python包管理工具pip的升级指南》本文全面探讨Python包管理工具pip的升级策略,从基础升级方法到高级技巧,涵盖不同操作系统环境下的最佳实践,我们将深入分析pip的工作原理,介绍多种升级方... 目录1. 背景介绍1.1 目的和范围1.2 预期读者1.3 文档结构概述1.4 术语表1.4.1 核

基于Python实现一个图片拆分工具

《基于Python实现一个图片拆分工具》这篇文章主要为大家详细介绍了如何基于Python实现一个图片拆分工具,可以根据需要的行数和列数进行拆分,感兴趣的小伙伴可以跟随小编一起学习一下... 简单介绍先自己选择输入的图片,默认是输出到项目文件夹中,可以自己选择其他的文件夹,选择需要拆分的行数和列数,可以通过

Python中反转字符串的常见方法小结

《Python中反转字符串的常见方法小结》在Python中,字符串对象没有内置的反转方法,然而,在实际开发中,我们经常会遇到需要反转字符串的场景,比如处理回文字符串、文本加密等,因此,掌握如何在Pyt... 目录python中反转字符串的方法技术背景实现步骤1. 使用切片2. 使用 reversed() 函

Python中将嵌套列表扁平化的多种实现方法

《Python中将嵌套列表扁平化的多种实现方法》在Python编程中,我们常常会遇到需要将嵌套列表(即列表中包含列表)转换为一个一维的扁平列表的需求,本文将给大家介绍了多种实现这一目标的方法,需要的朋... 目录python中将嵌套列表扁平化的方法技术背景实现步骤1. 使用嵌套列表推导式2. 使用itert