python_爬虫 Feed exports

2023-10-20 06:40
文章标签 python 爬虫 exports feed

本文主要是介绍python_爬虫 Feed exports,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

一、创建项目

二、 项目目录结构

三、项目代码

 settings.py

start.py

items.py

fd.py

四、项目执行结果

fd.csv

quotes.jsonlines

 五、参考


具体参数详见:

Feed exports

Feed exports 中文

本文是通过spider 项目,简单爬取 Quotes to Scrape 下的 text 和作者,并保存成 csv jsonlines 格式的文件。

一、创建项目

1、执行命令行创建项目:

        scrapy startproject feed
2、进入创建的项目:

        cd feed

3、创建名字为 fd 的 spider 运访问的域名 quotes.toscrape.com:

        scrapy genspider fd "quotes.toscrape.com"

二、 项目目录结构

如下是最终项目目录结构截图:

三、项目代码

 settings.py

 设置是否遵循 reboot 协议

# Obey robots.txt rules
ROBOTSTXT_OBEY = False

start.py

项目根目录下创建 start.py 文件,用去执行 scrapy crawl fd 命令

from scrapy import cmdlinecmdline.execute("scrapy crawl fd".split())

items.py

在items.py 文件夹下添加如下代码:

import scrapyclass QuotesItem(scrapy.Item):text = scrapy.Field()author = scrapy.Field()

fd.py

spiders文件夹下的 fd.py 文件代码如下:

import scrapy
from feed.items import QuotesItemclass FdSpider(scrapy.Spider):name = 'fd'allowed_domains = ['toscrape.com']start_urls = ['http://quotes.toscrape.com//']custom_settings = {'FEED_FORMAT': 'jsonlines','FEED_EXPORT_ENCODING': 'utf-8','FEED_URI': 'quotes.jsonlines','FEED_EXPORT_INDENT': 4,}# custom_settings = {#     'FEED_EXPORT_ENCODING': 'utf-8',#     'FEED_FORMAT': 'csv',#     'FEED_URI': '%(name)s.csv',#     'FEED_EXPORT_FIELDS': ['text','author']# }def __init__(self, category=None, *args, **kwargs):super(FdSpider, self).__init__(*args, **kwargs)self.start_urls = ['http://quotes.toscrape.com/tag/life/']def parse(self, response):quote_block = response.css('div.quote')for quote in quote_block:text = quote.css('span.text::text').extract_first()author = quote.xpath('span/small/text()').extract_first()# item = dict(text=text, author=author)item = QuotesItem()item['text'] = text[1:10]  # 获取1~9个字符item['author'] = authoryield itemnext_page = response.css('li.next a::attr("href")').extract_first()if next_page is not None:yield response.follow(next_page, self.parse)

四、项目执行结果

fd.csv

quotes.jsonlines

 五、参考

[Feed exports] - 数据导出配置详解

 Feed exports

Feed exports 中文 

目录 

这篇关于python_爬虫 Feed exports的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/245378

相关文章

Conda与Python venv虚拟环境的区别与使用方法详解

《Conda与Pythonvenv虚拟环境的区别与使用方法详解》随着Python社区的成长,虚拟环境的概念和技术也在不断发展,:本文主要介绍Conda与Pythonvenv虚拟环境的区别与使用... 目录前言一、Conda 与 python venv 的核心区别1. Conda 的特点2. Python v

Python使用python-can实现合并BLF文件

《Python使用python-can实现合并BLF文件》python-can库是Python生态中专注于CAN总线通信与数据处理的强大工具,本文将使用python-can为BLF文件合并提供高效灵活... 目录一、python-can 库:CAN 数据处理的利器二、BLF 文件合并核心代码解析1. 基础合

Python使用OpenCV实现获取视频时长的小工具

《Python使用OpenCV实现获取视频时长的小工具》在处理视频数据时,获取视频的时长是一项常见且基础的需求,本文将详细介绍如何使用Python和OpenCV获取视频时长,并对每一行代码进行深入解析... 目录一、代码实现二、代码解析1. 导入 OpenCV 库2. 定义获取视频时长的函数3. 打开视频文

Python中你不知道的gzip高级用法分享

《Python中你不知道的gzip高级用法分享》在当今大数据时代,数据存储和传输成本已成为每个开发者必须考虑的问题,Python内置的gzip模块提供了一种简单高效的解决方案,下面小编就来和大家详细讲... 目录前言:为什么数据压缩如此重要1. gzip 模块基础介绍2. 基本压缩与解压缩操作2.1 压缩文

Python设置Cookie永不超时的详细指南

《Python设置Cookie永不超时的详细指南》Cookie是一种存储在用户浏览器中的小型数据片段,用于记录用户的登录状态、偏好设置等信息,下面小编就来和大家详细讲讲Python如何设置Cookie... 目录一、Cookie的作用与重要性二、Cookie过期的原因三、实现Cookie永不超时的方法(一)

Python内置函数之classmethod函数使用详解

《Python内置函数之classmethod函数使用详解》:本文主要介绍Python内置函数之classmethod函数使用方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地... 目录1. 类方法定义与基本语法2. 类方法 vs 实例方法 vs 静态方法3. 核心特性与用法(1编程客

Python函数作用域示例详解

《Python函数作用域示例详解》本文介绍了Python中的LEGB作用域规则,详细解析了变量查找的四个层级,通过具体代码示例,展示了各层级的变量访问规则和特性,对python函数作用域相关知识感兴趣... 目录一、LEGB 规则二、作用域实例2.1 局部作用域(Local)2.2 闭包作用域(Enclos

Python实现对阿里云OSS对象存储的操作详解

《Python实现对阿里云OSS对象存储的操作详解》这篇文章主要为大家详细介绍了Python实现对阿里云OSS对象存储的操作相关知识,包括连接,上传,下载,列举等功能,感兴趣的小伙伴可以了解下... 目录一、直接使用代码二、详细使用1. 环境准备2. 初始化配置3. bucket配置创建4. 文件上传到os

使用Python实现可恢复式多线程下载器

《使用Python实现可恢复式多线程下载器》在数字时代,大文件下载已成为日常操作,本文将手把手教你用Python打造专业级下载器,实现断点续传,多线程加速,速度限制等功能,感兴趣的小伙伴可以了解下... 目录一、智能续传:从崩溃边缘抢救进度二、多线程加速:榨干网络带宽三、速度控制:做网络的好邻居四、终端交互

Python中注释使用方法举例详解

《Python中注释使用方法举例详解》在Python编程语言中注释是必不可少的一部分,它有助于提高代码的可读性和维护性,:本文主要介绍Python中注释使用方法的相关资料,需要的朋友可以参考下... 目录一、前言二、什么是注释?示例:三、单行注释语法:以 China编程# 开头,后面的内容为注释内容示例:示例:四