toppic
当前位置: 首页> 玄幻小说> 拿好这段代码,愿你求职路上不再迷茫

拿好这段代码,愿你求职路上不再迷茫

2021-04-05 14:27:47

(点击上方公众号,可快速关注)


作者:伯乐在线专栏作者 -

点击 → 了解如何加入专栏作者

如需转载,发送「转载」二字查看说明


涉及知识:数据库(mongodb)node.js

建议阅读:3分钟


经常有人问:“我是该学Angular还是React?该用gulp还是webpack…”

这篇文章就是要 交给大家一把钥匙,专门解答这类问题。


解答思路


我一直提倡的是 学以致用,知行合一,所以当我们学习和储备技能的时候应该要和市场相结合,准确的说应该是人才市场。

要了解人才市场有个非常简单的方法——招聘网站。我们上招聘网站搜一搜,看看企业在招聘的时候都有哪些技能需求就一目了然了。


可问题就是数据那么多,如果只抽取部分做参考不够准确,一个个去看又效率太低。


我觉得身为开发人员最大的优势就是 可以用代码等技术手段定制所需的工具。所以我们只需要写一段爬虫代码,把招聘网站上的数据“同步”到数据库,然后进行统计分析,就可以进行有的放矢地学习了。先看一下统计分析结果:



动手实践


以个人比较喜欢的某招聘网站为例。


网页分析


搜索“前端”,人往高处看齐,我们添加一个过滤条件“25k-50k”,看看市场对高级前端的要求。同时按下F12打开调试,发现这里发送了ajax请求(凡事有利有弊,前后端分离虽然开发效率提高了,但同时也为爬虫程序降低了难度)。


补充一下:一般分两种情况:json数据和html页面,本文两种情况皆有涉及。




通过列表我们只能知道公司和职位,点击链接跳转到详情页看到我们想要的信息:岗位职责和要求。




这里没有看到ajax请求,应该是后端利用模板直接生成的静态页面,所以需要解析html,会略微麻烦一些。


编写代码


整个编码的思路变得很清晰了:


1.分页查询职位列表

用request模块发送get请求,获取json数据,然后按照id查询html。


2.按职位查询详情并入库

用jsdom模块对获取的html进行dom解析,这个模块很容易上手,可用jquery语法。

将解析的数据过滤,保留岗位职责和要求信息,利用mongoose保存至数据库。


3.从数据库中查询结果

查询统计各技能占比。结果如开头截图所示。


统计结果只代表了某招聘网站对高级前端的技能要求,仅供参考。 程序代码100多行,具体细节可戳

源码地址:https://github.com/yalishizhude/spider


总结优化


换个搜索关键词,换个网站都可以使用么?


换个关键词可以,换个网站直接使用肯定不行的,首先用开发者工具找出查询数据的url,然后json数据直接处理,如果是html再解析,方法相同,只是解析的字段不同。


明明是写个爬虫,却说是职业规划,不是标题党么?


爬虫跟文中所提的手工统计、抽样查看方法一样,都是手段,只是更高效一些。文章的重点是利用统计分析的方法来解决“xx与yy,我该如何选择”这类问题。目标思维很重要,黑猫白猫抓到老鼠就是好猫。


我不用数据库直接在内存中分析不是更简单么?


这样的确能减少代码量,但是每次分析都需要重新抓取数据,效率太低而且容易被反爬虫发现,所以 建议还是将查询结果统计入库。绘图,出表格…后续想怎么玩都行~


有没有更可靠的分析方法?


当然有。文中所提的搜索匹配的分析方式太简单了,最理想的方式应该是 自动挑选出topN的关键词然后按占比排序。咨询了一下做大数据的朋友,可以使用 word2vec,有兴趣的读者可以试试。



关注「前端大全」

看更多精选前端技术文章

↓↓↓



专栏作者简介 ( 点击 → 加入专栏作者 


:JSP工程师,多年大型国际项目开发经验。WEB前端工程师,擅长PC端以及移动端开发。js全栈工程师,熟悉node.js、mongoDB。


打赏支持作者写出更多好文章,谢谢!


友情链接