大专学历,转行两年的 Python 开发者故事

2024-03-07 23:59

本文主要是介绍大专学历,转行两年的 Python 开发者故事,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

我毕业六年了,但与技术和 Python 相关的工作经验也就两年。今天我想跟大家分享自己转行的故事,希望能够鼓励那些跟我一样的朋友共同前行。

我们将会聊到我个人的经历和入行故事,个人的技术成就,我 2019 年上半年和下半年的工作重点,讨论快速学习的方法,最后推荐一些学习资源。

01

个人简介和经历

我叫韦世东,是一名 Python 开发者,同时也正在学习 Rust 语言。我并没有大厂履历,也没有太多的 IT 工作经历。

我喜欢用文章的方式向周边的人分享知识,也热衷于开源项目。在 2018 年以前,我并不是一个专业的研发,工作内容甚至与技术没有太多关联。

我所学的专业是“软件开发”,但大专念书的时候没有好好学习,导致毕业后四处碰壁。毕业后的第一年辗转进入了一个互联网金融企业,在技术部里面担任最小的小弟。随着公司的发展和人数增加,我从小弟变成了小哥,后来成为了连接技术部和公司高层的纽带。

从这个时候起,我离技术越来越远,后来慢慢转到了运营岗,并通过努力从运营小弟变成了运营小哥。2013 年毕业,到 2018 年转技术,中间 5 年时间里我也只有第一年呆在技术岗位,其他几年都与技术无关。

这几年我待过的岗位有:信息安全员、技术组长、运营专员、运营指导、副总经理、运营总监。

互联网金融倒闭和跑路潮爆发,我感到行业岌岌可危,而且我觉得就我这点运营水平也蹦哒不起来(说成一事无成也不为过)。

恰好那段时间我了解到 Python 语言,了解到爬虫对于企业运营和发展的重要性,还有 Python 易学的特点。于是我下班后看 Python 的入门教程,并根据网上文章尝试运行自己编写的代码。

念书的时候,学校教的是 C 语言、C# 和 PHP,但我都没有学会。唯独这一次,我感觉我能够学会 Python

在家看 Python 入门文章、Python3 入门教程文章和爬虫入门视频。跟着教程学习了大概 3 个月,我就尝试自己接一些小需求来做,例如爬取一些公开数据、编写 Python 程序等。那时候一两天才能完成任务,得到的报酬通常是 30~300,有时候甚至靠回答群有的问题领几块钱小红包。

自学阶段,我的 Python 水平已经达到了初级,还学会了很多爬虫相关的技术,例如网页解析、数据存储、定时调度、去重和增量爬取等,对于常见的一些反爬虫措施也略有了解。

从零基础到这个阶段,我大概花了 7 个月。这时候,我觉得我能够胜任一个初级爬虫工程师的工作了,于是便在省会城市的人才网找了一些招爬虫或 Python 研发的公司,投了简历。三天内,接到了 5 个面试,然后也顺利的找到了一份爬虫组长的工作。

工作期间,我们爬虫组的任务就是完成技术负责人分配的数据爬取任务,目标分为网站和 APP 两大类。我们公司是体育行业,所以数据的变动是常有的事,这就要求爬虫组能够高频的爬取数据。

为了省事,我参考 Scrapyd 和 Celery 用 Django 编写了一套支持 Crontab 规则的调度平台,这样我们编写的爬虫就可以集中在这个调度平台上进行管理。

在反爬虫方面,对于那些用 JavaScript 保护数据的网站,我们最开始采取的是 Selenium 或者 Splash 这种自动渲染工具来应对。但后来考虑到高频、时效性和资源占用等问题,便硬着头皮去解目标网站中的 JS 算法,再用 Python 模拟实现同样的算法。

这样,将爬取速度和资源占用都调整到了最优的状态。

我认为我进入了技术领域,就应该踏踏实实的呆在这个领域里,想办法扎根。所以我一直在寻找除了工作和外包以外的副业。我希望这个副业,既能够帮助我技术成长、提高个人水平,又能够帮助我在技术领域扎根。

2018 年是知识付费蓬勃发展的一年,所以我也加入了这个行列。

我写了一个《Python 实战:用 Scrapyd 打造个人化的爬虫部署管理控制台》的电子小册。

我发现在编写小册的过程中,我不得不逼迫自己弄清楚细节,这使我的技术能力得到了进步。于是,我便开启了写文章之路,一方面作为自己的“笔记”,一方面逼迫自己完善细节。其实一开始我有写博客,但没有系统化的写过完整文章,

后来崔庆才崔哥跟我说有优质文章可以在他的公众号上投稿,于是我就将一些文章搬到公众号上。接着崔哥又邀请我做公众号的管理员,可以自由发文。这对我来说简直就是雪中送炭,给了我一个很大的展示平台。

在此,感谢崔哥对我的照顾

这一切看起来都是机缘巧合,但又不乏努力争取和主动出击。就这样,一边工作一边发文,我的技术水平呈直线上升态势。故事太多,我就不一一列举了。

02

个人成就

不提工作上的成果,单说在技术领域的成就。由于得到了崔哥的照顾,在大平台的光芒之下,我也认识了很多朋友,包括技术圈的朋友、媒体圈朋友和一些后来私交甚好的朋友。作为一个刚转行不久的“新人”,我自知难以与高学历、大厂履历或者多年工作经验的朋友相比较。大城市和大厂对于学历的要求近乎苛刻:第一学历 985/211、名校研究生或领域极客。

在学历上,我已经没有办法努力了。我选择的是“曲线行驶”的方式,争取在其他方面能够赶上这些大佬。我在技术领域或媒体圈获得了一些“名头”:

比如在技术领域或媒体圈获得的一些“名头:

  • GitChat 认证作者

  • 图灵教育签约作者

  • 电子工业出版社约稿作者

  • 华为云认证云享专家

这些“名头”看似“虚名”,但对我而言却十分重要。虽然它们并不是什么高级的荣耀,但这都是我努力的成果,是我日日夜夜刻苦学习的证明,是广大读者和媒体朋友对韦世东的认可,是我最宝贵的财富之一。

03

快速学习的方法

对于转行的朋友,或者刚接触 IT 技术的朋友来说,最重要的是两件事:

  • 如何保持专注,能够坚持

  • 找到快速学习的方法


第一件事其实并不难,保持专注并能够坚持的原因通常有二:有经济收入或者极大的兴趣爱好。纵观我的成长经历,其实这也是我坚持下来的原因。学习之初,完全是出于兴趣和转行的压力。在 3 个月的阶段,有一些小小的收入也是支撑我继续前行的主要原因。

第二件事,找到快速学习的方法。我可以说,我的进步速度非常快,而且很稳固。我深深的知道“浮沙之上难驻高台”的道理,所以我在学习的过程中,通过写文章来巩固所学,并且我只专注于一个领域(爬虫)。

Python 可以发展的方向非常多,例如 WEB、爬虫、数据分析和深度学习,我自知想要扎根就必须专注一个领域。我从最初的网络请求、网页解析到数据存储,爬虫部署调度,再到异步、多线程多进程、去重和增量,甚至是反爬虫的研究,都属于爬虫这个领域。

为了保持专注,我改变了我的作息时间,从原来的“早上八九点起床,凌晨一两点睡”改成了“早上六七点起,晚上十一点睡”。周末亦是如此,早睡早起使我有充沛的精力保持工作和学习。

选好某个领域,并保持足够的时间后,能够让人快速进步的因素还有:读源码,造轮子。读源码可以让我们从更高的的角度理解程序的设计,并学到很多平时难以见到的骚操作。而造轮子,则是考验我们将知识转换成代码的能力

我读/研究过源码的项目有:

  • Scrapyd

  • Scrapy

  • Celery

  • Gerapy

  • SpiderKeeper

  • SpiderWeb

  • WebSockets

  • WebsocketClient

  • Parsel

  • apscheduler

  • Job_Spider,Rust 语言编写的定时任务库

自己造过的轮子有:

  • aiowebsocket,Python 编写的异步 WebSocekt 客户端

  • Gerapy 2.0 后端(未发布),使用 Tornado 框架编写的爬虫项目部署调度平台

  • django_cron_scheduler,工作期间编写的爬虫项目部署调度平台

这里有个建议,读源码、查资料的时候我们必定会用到搜索引擎,搜索引擎列出的文章并不一定是准确的。有些文章甚至是缺头缺尾,所以最好是直接翻文档或者找一些知名作者写的文章来学习

04

上半年与下半年

2019 年上半年,我主要的精力就是放在书籍撰写上。这是我与图灵教育签约的一本反爬虫专题的书,书本从网络协议和网页结构等基础开始,通过实际的案例和现象说明其中用到的原理和技术,并将市面上常见的反爬虫手段纳入其中,作为示例。

书中对 JavaScript 代码混淆、加密和验证码破解都有深入的介绍,我希望这本书能够帮助爬虫工程师和爱好者了解反爬虫的手段和原理,同时也能够帮助到前端、后端开发者了解爬虫工程师常用的技巧和原理。这本反爬虫专题的书还没有印刷出版,但相信很快就会跟大家见面了。

上半年我发布了很多内容质量很高的文章

640?wx_fmt=png

下半年,我的主要精力依旧是放在书籍的撰写上。这一本是与电子工业出版社约定的爬虫相关书籍,具体内容这里不便透露,但也会是一本高质量的书,希望大家多关注。

同时,还会兼顾其他技术内容的输出,例如这次与 GitChat 编辑策划的 MongoDB 系列教程。这个教程目前只出了第一期《MongoDB 实战教程:数据库与集合的 CRUD 操作篇》,大体内容如下:

  • NoSQL 的概念

  • 认识 MongoDB

  • 在 Ubuntu 和 macOS 上安装 MongoDB

  • 交互式接口 MongoShell的使用

  • MongoDB 数据类型

  • 数据库和集合的 CRUD 操作


这只是开胃菜,后面发布的内容才是重点:

  • 文档的 CRUD 操作和 Cursor 对象

  • 掌握流式聚合操作

  • 了解 MongoDB 的查询效率和优化

  • 如何提高 MongoDB 的可用性

  • 如何应对数据服务故障

  • 理解 MongoDB 的访问控制

  • 学会用数据模型降低数据冗余,提高效率

  • 掌握 mongodump 数据备份与还原方法

这是写给 0 基础同学的 MongoDB 快速入门文章。内容从文档 CRUD 到流式聚合操作;从执行计划、索引、数据模型到复制集;从分片、访问控制到数据备份与还原。6 篇近 5 万字的内容覆盖了 MongoDB 的大部分知识点,完全满足日常开发的要求

05

学习资源推荐

学习资源是学习质量和速度的保证,因此找到高质量的学习资源对我们来说也是非常重要的。

如果大家感兴趣,可以扫描下方二维码入群获取和交流

640?wx_fmt=png

大家也可以加我微信:zenrusts

我们一起探讨技术知识、共同进步


点击阅读原文,查看我发布过的 Chat 文章。

这篇关于大专学历,转行两年的 Python 开发者故事的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:https://blog.csdn.net/soledadzz/article/details/100013362
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/785276

相关文章

8种快速易用的Python Matplotlib数据可视化方法汇总(附源码)

《8种快速易用的PythonMatplotlib数据可视化方法汇总(附源码)》你是否曾经面对一堆复杂的数据,却不知道如何让它们变得直观易懂?别慌,Python的Matplotlib库是你数据可视化的... 目录引言1. 折线图(Line Plot)——趋势分析2. 柱状图(Bar Chart)——对比分析3

Python模拟串口通信的示例详解

《Python模拟串口通信的示例详解》pySerial是Python中用于操作串口的第三方模块,它支持Windows、Linux、OSX、BSD等多个平台,下面我们就来看看Python如何使用pySe... 目录1.win 下载虚www.chinasem.cn拟串口2、确定串口号3、配置串口4、串口通信示例5

Python Pandas高效处理Excel数据完整指南

《PythonPandas高效处理Excel数据完整指南》在数据驱动的时代,Excel仍是大量企业存储核心数据的工具,Python的Pandas库凭借其向量化计算、内存优化和丰富的数据处理接口,成为... 目录一、环境搭建与数据读取1.1 基础环境配置1.2 数据高效载入技巧二、数据清洗核心战术2.1 缺失

利用Python实现Excel文件智能合并工具

《利用Python实现Excel文件智能合并工具》有时候,我们需要将多个Excel文件按照特定顺序合并成一个文件,这样可以更方便地进行后续的数据处理和分析,下面我们看看如何使用Python实现Exce... 目录运行结果为什么需要这个工具技术实现工具的核心功能代码解析使用示例工具优化与扩展有时候,我们需要将

Python+PyQt5实现文件夹结构映射工具

《Python+PyQt5实现文件夹结构映射工具》在日常工作中,我们经常需要对文件夹结构进行复制和备份,本文将带来一款基于PyQt5开发的文件夹结构映射工具,感兴趣的小伙伴可以跟随小编一起学习一下... 目录概述功能亮点展示效果软件使用步骤代码解析1. 主窗口设计(FolderCopyApp)2. 拖拽路径

Python使用Reflex构建现代Web应用的完全指南

《Python使用Reflex构建现代Web应用的完全指南》这篇文章为大家深入介绍了Reflex框架的设计理念,技术特性,项目结构,核心API,实际开发流程以及与其他框架的对比和部署建议,感兴趣的小伙... 目录什么是 ReFlex?为什么选择 Reflex?安装与环境配置构建你的第一个应用核心概念解析组件

Python将字符串转换为小写字母的几种常用方法

《Python将字符串转换为小写字母的几种常用方法》:本文主要介绍Python中将字符串大写字母转小写的四种方法:lower()方法简洁高效,手动ASCII转换灵活可控,str.translate... 目录一、使用内置方法 lower()(最简单)二、手动遍历 + ASCII 码转换三、使用 str.tr

Python处理超大规模数据的4大方法详解

《Python处理超大规模数据的4大方法详解》在数据的奇妙世界里,数据量就像滚雪球一样,越变越大,从最初的GB级别的小数据堆,逐渐演变成TB级别的数据大山,所以本文我们就来看看Python处理... 目录1. Mars:数据处理界的 “变形金刚”2. Dask:分布式计算的 “指挥家”3. CuPy:GPU

Python多进程、多线程、协程典型示例解析(最新推荐)

《Python多进程、多线程、协程典型示例解析(最新推荐)》:本文主要介绍Python多进程、多线程、协程典型示例解析(最新推荐),本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定... 目录一、multiprocessing(多进程)1. 模块简介2. 案例详解:并行计算平方和3. 实现逻

Python对PDF书签进行添加,修改提取和删除操作

《Python对PDF书签进行添加,修改提取和删除操作》PDF书签是PDF文件中的导航工具,通常包含一个标题和一个跳转位置,本教程将详细介绍如何使用Python对PDF文件中的书签进行操作... 目录简介使用工具python 向 PDF 添加书签添加书签添加嵌套书签Python 修改 PDF 书签Pytho