爬虫可以不必自己写,使用ChatGPT编写抓取电影评论数据脚本

2024-06-10 05:04

本文主要是介绍爬虫可以不必自己写,使用ChatGPT编写抓取电影评论数据脚本,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

经常去新华书店看看有没有什么新书上架,还是更新挺及时的,可以反映新的技术趋势。这不,最近就看到了这本《巧用 ChatGPT 快速搞定数据分析》,作者是个大牛,第一次看到prompt可以这么写,得写这么长,P.S.据说prompt也只是个打字员的过渡阶段。书中分享了多个爬虫,这里先测试一个亲测能成功的豆瓣爬虫分享下!应该是chatgpt3.5的知识更新到了2022年左右,估计豆瓣的网页代码比较稳定吧,或者它的策略愿意让更多人获得这个评分和评论。

你是网络数据抓取的高手,熟练掌握 Python 编程语言,具有良好的网络编程基础,能够熟练使用网络爬虫框架,具备数据处理和分析能力,以及自我学习和解决问题的能力。这些技能使你能够快速、准确地抓取网络数据,并从中提取出有用的信息,为数据分析和其他领域的应用提供支持。
现在我需要抓取豆瓣网站上《泰坦尼克号》电影的评论数据,包括评论者、评分、评论内容。在抓取到对应的信息后,将这些信息存到一个 CSV文件中。
请直接给我完整的 Python 代码,以代码块的格式输出。

然后,我们就得到了代码,当然,可能有个别报错,一般来讲对应修正下就可以啦,或者让gpt自己纠错下!Devin这个AI程序员,以及metaGPT等也做了开源的程序员,应该比这个是强大了,不管怎样,简单的代码gpt还是hold住的。

import requests
from bs4 import BeautifulSoup
import csvdef scrape_douban_reviews(url):headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.104 Safari/537.36'}response = requests.get(url, headers=headers)soup = BeautifulSoup(response.text, 'html.parser')reviews = []for comment in soup.find_all('div', class_='comment-item'):reviewer = comment.find('a', class_='name').get_text().strip()rating = comment.find('span', class_='rating').get('title').strip()content = comment.find('p', class_='comment-content').get_text().strip()reviews.append([reviewer, rating, content])return reviewsdef save_to_csv(data, filename):with open(filename, 'w', encoding='utf-8', newline='') as file:writer = csv.writer(file)writer.writerow(['Reviewer', 'Rating', 'Comment'])writer.writerows(data)if __name__ == "__main__":url = 'https://movie.douban.com/subject/1292722/comments'reviews = scrape_douban_reviews(url)save_to_csv(reviews, 'titanic_reviews.csv')print("Reviews saved to titanic_reviews.csv")

这里是会报错的,以下是纠错后的代码,我觉得GPT的爬虫水平比我好啦,因为我已经好久没写啦,忘光啦!

import requests
from bs4 import BeautifulSoup
import csvdef scrape_douban_reviews(url):headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.104 Safari/537.36'}response = requests.get(url, headers=headers)soup = BeautifulSoup(response.text, 'html.parser')reviews = []for comment in soup.find_all('div', class_='comment-item'):reviewer = comment.find('a', class_='name')rating = comment.find('span', class_='rating').get('title').strip()content = comment.find('p', class_='comment-content').get_text().strip()reviews.append([reviewer, rating, content])return reviewsdef save_to_csv(data, filename):with open(filename, 'w', encoding='utf-8', newline='') as file:writer = csv.writer(file)writer.writerow(['Reviewer', 'Rating', 'Comment'])writer.writerows(data)if __name__ == "__main__":url = 'https://movie.douban.com/subject/1292722/comments'reviews = scrape_douban_reviews(url)save_to_csv(reviews, 'titanic_reviews.csv')print("Reviews saved to titanic_reviews.csv")

成功获取到了结果:

怎么样,伙伴们,要不要试试更多的网站和app等?

这篇关于爬虫可以不必自己写,使用ChatGPT编写抓取电影评论数据脚本的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1047286

相关文章

Python使用Tenacity一行代码实现自动重试详解

《Python使用Tenacity一行代码实现自动重试详解》tenacity是一个专为Python设计的通用重试库,它的核心理念就是用简单、清晰的方式,为任何可能失败的操作添加重试能力,下面我们就来看... 目录一切始于一个简单的 API 调用Tenacity 入门:一行代码实现优雅重试精细控制:让重试按我

MySQL中EXISTS与IN用法使用与对比分析

《MySQL中EXISTS与IN用法使用与对比分析》在MySQL中,EXISTS和IN都用于子查询中根据另一个查询的结果来过滤主查询的记录,本文将基于工作原理、效率和应用场景进行全面对比... 目录一、基本用法详解1. IN 运算符2. EXISTS 运算符二、EXISTS 与 IN 的选择策略三、性能对比

SpringBoot多环境配置数据读取方式

《SpringBoot多环境配置数据读取方式》SpringBoot通过环境隔离机制,支持properties/yaml/yml多格式配置,结合@Value、Environment和@Configura... 目录一、多环境配置的核心思路二、3种配置文件格式详解2.1 properties格式(传统格式)1.

Oracle数据库定时备份脚本方式(Linux)

《Oracle数据库定时备份脚本方式(Linux)》文章介绍Oracle数据库自动备份方案,包含主机备份传输与备机解压导入流程,强调需提前全量删除原库数据避免报错,并需配置无密传输、定时任务及验证脚本... 目录说明主机脚本备机上自动导库脚本整个自动备份oracle数据库的过程(建议全程用root用户)总结

使用Python构建智能BAT文件生成器的完美解决方案

《使用Python构建智能BAT文件生成器的完美解决方案》这篇文章主要为大家详细介绍了如何使用wxPython构建一个智能的BAT文件生成器,它不仅能够为Python脚本生成启动脚本,还提供了完整的文... 目录引言运行效果图项目背景与需求分析核心需求技术选型核心功能实现1. 数据库设计2. 界面布局设计3

使用IDEA部署Docker应用指南分享

《使用IDEA部署Docker应用指南分享》本文介绍了使用IDEA部署Docker应用的四步流程:创建Dockerfile、配置IDEADocker连接、设置运行调试环境、构建运行镜像,并强调需准备本... 目录一、创建 dockerfile 配置文件二、配置 IDEA 的 Docker 连接三、配置 Do

解决pandas无法读取csv文件数据的问题

《解决pandas无法读取csv文件数据的问题》本文讲述作者用Pandas读取CSV文件时因参数设置不当导致数据错位,通过调整delimiter和on_bad_lines参数最终解决问题,并强调正确参... 目录一、前言二、问题复现1. 问题2. 通过 on_bad_lines=‘warn’ 跳过异常数据3

Android Paging 分页加载库使用实践

《AndroidPaging分页加载库使用实践》AndroidPaging库是Jetpack组件的一部分,它提供了一套完整的解决方案来处理大型数据集的分页加载,本文将深入探讨Paging库... 目录前言一、Paging 库概述二、Paging 3 核心组件1. PagingSource2. Pager3.

python使用try函数详解

《python使用try函数详解》Pythontry语句用于异常处理,支持捕获特定/多种异常、else/final子句确保资源释放,结合with语句自动清理,可自定义异常及嵌套结构,灵活应对错误场景... 目录try 函数的基本语法捕获特定异常捕获多个异常使用 else 子句使用 finally 子句捕获所

C++11右值引用与Lambda表达式的使用

《C++11右值引用与Lambda表达式的使用》C++11引入右值引用,实现移动语义提升性能,支持资源转移与完美转发;同时引入Lambda表达式,简化匿名函数定义,通过捕获列表和参数列表灵活处理变量... 目录C++11新特性右值引用和移动语义左值 / 右值常见的左值和右值移动语义移动构造函数移动复制运算符