用Python爬取拉勾网的职位信息!给我要实习的表弟一些中肯的建议

记得在前一段时间由于需要并且是第一次接触爬虫,没有成功获取到数据,了解爬虫一段时间之后,再次爬取拉钩网职位信息,本此采用单线程爬虫,之后会发布scrapy写法。

获取的主要字段:

  • 职位名称
  • 公司名称
  • 城市
  • 公司规模
  • 公司类型
  • 月薪
  • 行业领域
  • firstType
  • secondType
  • 工作经历
  • 学历

首先,输入python工程师进行搜索,选择城市之后发现url并未发生改变,通过抓包工具抓到了返回的json数据,这个时候我们就要考虑怎么去构造URL,下边是抓包截图

用Python爬取拉勾网的职位信息!给我要实习的表弟一些中肯的建议

抓包分析

明白了数据的加载方式,接下来就要分析它所携带的参数和请求方式

用Python爬取拉勾网的职位信息!给我要实习的表弟一些中肯的建议

url和请求方式

用Python爬取拉勾网的职位信息!给我要实习的表弟一些中肯的建议

get请求携带数据和post提交的数据

从上图我们可以了解到URL及其携带的参数,那么接下来的工作就好办了,我们只要传递相对应的参数就可以拿到返回的json串,具体构造方式看之后的分析,因为还牵扯到页码的分析

搞明白了数据的加载的方式以及怎么构造URL,接下来就好考虑不同的职位、城市以及对应的分页问题

用Python爬取拉勾网的职位信息!给我要实习的表弟一些中肯的建议

职位+页码(1)+地点(北京)

用Python爬取拉勾网的职位信息!给我要实习的表弟一些中肯的建议

第二页

在相同地点点击下一页之后只有pn发生了改变,所以很显然,pn控制分页问题,接下来我们尝试一下更换地点,与上图进行对比看一下哪些参数变化了

用Python爬取拉勾网的职位信息!给我要实习的表弟一些中肯的建议

职位+地点(上海)

从上图可以看出更改地点之后city发生了变化,所以city控制城市,那么很显然kd控制职位切换

整明白了每个参数的含义,接下来我们就要考虑怎么找到到一个城市关于这个职位划分的总页数,从下图我们可以看到一个职位在不同城市的总页数是不同的

用Python爬取拉勾网的职位信息!给我要实习的表弟一些中肯的建议

python工程师+上海

用Python爬取拉勾网的职位信息!给我要实习的表弟一些中肯的建议

python工程师+北京

通过上边的一些介绍,接下来开始讲解每一部分的URL每一部分的参数的获取和构造完整的URL。

首先,职位和城市我们就没必要从网页上拿,可以自己存一个列表,然后遍历,那么就重点说一下总页数的获取

用Python爬取拉勾网的职位信息!给我要实习的表弟一些中肯的建议

进群:548377875   即可获取数十套PDF以及大量的学习教程哦!

总页数

soup = BeautifulSoup(response.text,'lxml')
pages = soup.find('span',{'class': 'span totalNum'}).get_text()

上边说明了总页数的位置及获取方法,接着说一下 职位+城市+页码的变化整个的构造方法(城市主要是拉钩网13个常用城市,先列两个关于python的职位)

获取相关职位总页数

def get_total_page():
 kd = ['python工程师','python数据分析']
 city = ['北京','上海','深圳','广州','杭州','成都','南京','武汉','西安','厦门','长沙','苏州','天津']
 urls_kd = ['https://www.lagou.com/jobs/list_{}?px=default&city='.format(one) for one in kd]
 for urls in urls_kd:
 urls_city = [urls+one for one in city]
 for url in urls_city:
 response = requests.get(url,headers=headers,cookies=cookies)
 location = url.split('&')[-1].split('=')[1]
 key = url.split('/')[-1].split('?')[0].split('_')[1]
 soup = BeautifulSoup(response.text,'lxml')
 pages = soup.find('span',{'class': 'span totalNum'}).get_text()
 print '职业:{}获取城市{}'.format(key,location)
 create_url(pages,location,key)

构造URL

def create_url(pages,city,kd):
 for i in range(1,int(pages)+1):
 url = 'https://www.lagou.com/jobs/positionAjax.json?px=default&city={}&needAddtionalResult=false'.format(city)
 get_data(url,i,kd)

获取详细数据写入csv文件

def get_data(url,kd):
 print '第{}页数据'.format(i)
 formdata = {
 'first': 'true','pn': i,'kd': kd
 }
 #注意这里是post请求
 response = requests.post(url,cookies=cookies,data=formdata)

以上为核心代码,剩余的就是解析json数据和写文件了,就不一一列出来了

结果

用Python爬取拉勾网的职位信息!给我要实习的表弟一些中肯的建议

结果

用Python爬取拉勾网的职位信息!给我要实习的表弟一些中肯的建议

总结

遇到的问题

之前访问该网站一直ip被封,后来就想着用代理ip,其实没必要这么麻烦,只需要访问的时候加上cookie就可以了,至少我现在访问这些职位和城市没出现ip被封的情况。

写入csv文件出现多一行空行的问题——解决办法,Python中的csv的writer,打开文件的时候,要小心,要通过binary模式去打开,即带b的,比如wb,ab+等,而不能通过文本模式,即不带b的方式,w,w+,a+等,否则,会导致使用writerow写内容到csv中时,产生对于的CR,导致多余的空行。

感悟

一个网页的爬取的关键点在于怎么去找到这些数据的准确位置,而这个前提是了解URL构造,参数、以及请求方式,整明白这些就成功了一大半,对于后边数据的提取就是一些常规的思路,单线程总体来说是比较慢的,之后改进加多线程或者用scrapy框架爬取数据,以上就是关于requests爬取拉钩网的一个简单的思路,有问题的可以留言或者评论一块探讨

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


我最近重新拾起了计算机视觉,借助Python的opencv还有face_recognition库写了个简单的图像识别demo,额外定制了一些内容,原本想打包成exe然后发给朋友,不过在这当中遇到了许多小问题,都解决了,记录一下踩过的坑。 1、Pyinstaller打包过程当中出现warning,跟d
说到Pooling,相信学习过CNN的朋友们都不会感到陌生。Pooling在中文当中的意思是“池化”,在神经网络当中非常常见,通常用的比较多的一种是Max Pooling,具体操作如下图: 结合图像理解,相信你也会大概明白其中的本意。不过Pooling并不是只可以选取2x2的窗口大小,即便是3x3,
记得大一学Python的时候,有一个题目是判断一个数是否是复数。当时觉得比较复杂不好写,就琢磨了一个偷懒的好办法,用异常处理的手段便可以大大程度帮助你简短代码(偷懒)。以下是判断整数和复数的两段小代码: 相信看到这里,你也有所顿悟,能拓展出更多有意思的方法~
文章目录 3 直方图Histogramplot1. 基本直方图的绘制 Basic histogram2. 数据分布与密度信息显示 Control rug and density on seaborn histogram3. 带箱形图的直方图 Histogram with a boxplot on t
文章目录 5 小提琴图Violinplot1. 基础小提琴图绘制 Basic violinplot2. 小提琴图样式自定义 Custom seaborn violinplot3. 小提琴图颜色自定义 Control color of seaborn violinplot4. 分组小提琴图 Group
文章目录 4 核密度图Densityplot1. 基础核密度图绘制 Basic density plot2. 核密度图的区间控制 Control bandwidth of density plot3. 多个变量的核密度图绘制 Density plot of several variables4. 边
首先 import tensorflow as tf tf.argmax(tenso,n)函数会返回tensor中参数指定的维度中的最大值的索引或者向量。当tensor为矩阵返回向量,tensor为向量返回索引号。其中n表示具体参数的维度。 以实际例子为说明: import tensorflow a
seaborn学习笔记章节 seaborn是一个基于matplotlib的Python数据可视化库。seaborn是matplotlib的高级封装,可以绘制有吸引力且信息丰富的统计图形。相对于matplotlib,seaborn语法更简洁,两者关系类似于numpy和pandas之间的关系,seabo
Python ConfigParser教程显示了如何使用ConfigParser在Python中使用配置文件。 文章目录 1 介绍1.1 Python ConfigParser读取文件1.2 Python ConfigParser中的节1.3 Python ConfigParser从字符串中读取数据
1. 处理Excel 电子表格笔记(第12章)(代码下载) 本文主要介绍openpyxl 的2.5.12版处理excel电子表格,原书是2.1.4 版,OpenPyXL 团队会经常发布新版本。不过不用担心,新版本应该在相当长的时间内向后兼容。如果你有新版本,想看看它提供了什么新功能,可以查看Open
1. 发送电子邮件和短信笔记(第16章)(代码下载) 1.1 发送电子邮件 简单邮件传输协议(SMTP)是用于发送电子邮件的协议。SMTP 规定电子邮件应该如何格式化、加密、在邮件服务器之间传递,以及在你点击发送后,计算机要处理的所有其他细节。。但是,你并不需要知道这些技术细节,因为Python 的
文章目录 12 绘图实例(4) Drawing example(4)1. Scatterplot with varying point sizes and hues(relplot)2. Scatterplot with categorical variables(swarmplot)3. Scat
文章目录 10 绘图实例(2) Drawing example(2)1. Grouped violinplots with split violins(violinplot)2. Annotated heatmaps(heatmap)3. Hexbin plot with marginal dist
文章目录 9 绘图实例(1) Drawing example(1)1. Anscombe’s quartet(lmplot)2. Color palette choices(barplot)3. Different cubehelix palettes(kdeplot)4. Distribution
Python装饰器教程展示了如何在Python中使用装饰器基本功能。 文章目录 1 使用教程1.1 Python装饰器简单示例1.2 带@符号的Python装饰器1.3 用参数修饰函数1.4 Python装饰器修改数据1.5 Python多层装饰器1.6 Python装饰器计时示例 2 参考 1 使
1. 用GUI 自动化控制键盘和鼠标第18章 (代码下载) pyautogui模块可以向Windows、OS X 和Linux 发送虚拟按键和鼠标点击。根据使用的操作系统,在安装pyautogui之前,可能需要安装一些其他模块。 Windows: 不需要安装其他模块。OS X: sudo pip3
文章目录 生成文件目录结构多图合并找出文件夹中相似图像 生成文件目录结构 生成文件夹或文件的目录结构,并保存结果。可选是否滤除目录,特定文件以及可以设定最大查找文件结构深度。效果如下: root:[z:/] |--a.py |--image | |--cat1.jpg | |--cat2.jpg |
文章目录 VENN DIAGRAM(维恩图)1. 具有2个分组的基本的维恩图 Venn diagram with 2 groups2. 具有3个组的基本维恩图 Venn diagram with 3 groups3. 自定义维恩图 Custom Venn diagram4. 精致的维恩图 Elabo
mxnet60分钟入门Gluon教程代码下载,适合做过深度学习的人使用。入门教程地址: https://beta.mxnet.io/guide/getting-started/crash-course/index.html mxnet安装方法:pip install mxnet 1 在mxnet中使
文章目录 1 安装2 快速入门2.1 基本用法2.2 输出图像格式2.3 图像style设置2.4 属性2.5 子图和聚类 3 实例4 如何进一步使用python graphviz Graphviz是一款能够自动排版的流程图绘图软件。python graphviz则是graphviz的python实