微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

python爬取安居客二手房网站数据(实例讲解)

是小打小闹

哈哈,现在开始正式进行爬虫书写首先,需要分析一下要爬取的网站的结构:作为一名河南的学生,那就看看郑州的二手房信息吧!

在上面这个页面中,我们可以看到一条条的房源信息,从中我们发现了什么,发现了连郑州的二手房都是这么的贵,作为即将毕业的学生狗惹不起啊惹不起

还是正文吧!!!由上可以看到网页一条条的房源信息,点击进去后就会发现:

房源的详细信息。OK!那么我们要干嘛呢,就是把郑州这个地区的二手房房源信息都能拿到手,可以保存到数据库中,用来干嘛呢,作为一个地理人,还是有点用处的,这次就不说了好,正式开始,首先我采用python3.6 中的requests,BeautifulSoup模块来进行爬取页面,首先由requests模块进行请求:

rush:xhtml;"> # 网页的请求头 header = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/60.0.3112.113 Safari/537.36' } # url链接 url = 'https://zhengzhou.anjuke.com/sale/' response = requests.get(url,headers=header) print(response.text)

执行后就会得到这个网站的HTML代码

通过分析可以得到每个房源都在class="list-item"的 li 标签中,那么我们就可以根据BeautifulSoup包进行提取

rush:xhtml;"> # 通过BeautifulSoup进行解析出每个房源详细列表并进行打印 soup = BeautifulSoup(response.text,'html.parser') result_li = soup.find_all('li',{'class': 'list-item'}) for i in result_li: print(i)

通过打印就能进一步减少了code量,好,继续提取

rush:xhtml;"> # 通过BeautifulSoup进行解析出每个房源详细列表并进行打印 soup = BeautifulSoup(response.text,{'class': 'list-item'}) # 进行循环遍历其中的房源详细列表 for i in result_li: # 由于BeautifulSoup传入的必须为字符串,所以进行转换 page_url = str(i) soup = BeautifulSoup(page_url,'html.parser') # 由于通过class解析的为一个列表,所以只需要第一个参数 result_href = soup.find_all('a',{'class': 'houseListTitle'})[0] print(result_href.attrs['href'])

这样,我们就能看到一个个的url了,是不是很喜欢

好了,按正常的逻辑就要进入页面开始分析详细页面了,但是爬取完后如何进行下一页的爬取呢所以,我们就需要先分析该页面是否有下一页

同样的方法就可以发现下一页同样是如此的简单,那么咱们就可以还是按原来的配方原来的味道继续

rush:xhtml;"> # 进行下一页的爬取 result_next_page = soup.find_all('a',{'class': 'aNxt'}) if len(result_next_page) != 0: print(result_next_page[0].attrs['href']) else: print('没有下一页了')

因为当存在下一页的时候,网页中就是一个a标签,如果没有的话,就会成为i标签了,所以这样的就行,因此,我们就能完善一下,将以上这些封装为一个函数

rush:xhtml;"> import requests from bs4 import BeautifulSoup

网页的请求头

header = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/60.0.3112.113 Safari/537.36'
}

def get_page(url):
response = requests.get(url,headers=header)

通过BeautifulSoup进行解析出每个房源详细列表并进行打印

soup = BeautifulSoup(response.text,'html.parser')
result_li = soup.find_all('li',{'class': 'list-item'})

进行下一页的爬取

result_next_page = soup.find_all('a',{'class': 'aNxt'})
if len(result_next_page) != 0:

函数进行递归

get_page(result_next_page[0].attrs['href'])

else:
print('没有下一页了')

进行循环遍历其中的房源详细列表

for i in result_li:

由于BeautifulSoup传入的必须为字符串,所以进行转换

page_url = str(i)
soup = BeautifulSoup(page_url,'html.parser')
# 由于通过class解析的为<a href="https://www.jb51.cc/tag/yige/" target="_blank" class="keywords">一个</a>列表,所以只需要第<a href="https://www.jb51.cc/tag/yige/" target="_blank" class="keywords">一个</a>参数
result_href = soup.find_all('a',{'class': 'houseListTitle'})[0]
# 先不做分析,等一会进行详细<a href="https://www.jb51.cc/tag/yemian/" target="_blank" class="keywords">页面</a><a href="https://www.jb51.cc/tag/hanshu/" target="_blank" class="keywords">函数</a>完成后进行<a href="https://www.jb51.cc/tag/diaoyong/" target="_blank" class="keywords">调用</a>
print(result_href.attrs['href'])

if name == 'main':

url链接

url = 'https://zhengzhou.anjuke.com/sale/'

页面爬取函数调用

get_page(url)

好了,那么咱们就开始详细页面的爬取了

哎,怎么动不动就要断电了,大学的坑啊,先把结果附上,闲了在补充,

rush:xhtml;"> import requests from bs4 import BeautifulSoup

网页的请求头

header = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML,headers=header)

通过BeautifulSoup进行解析出每个房源详细列表并进行打印

soup_idex = BeautifulSoup(response.text,'html.parser')
result_li = soup_idex.find_all('li',{'class': 'list-item'})

进行循环遍历其中的房源详细列表

for i in result_li:

由于BeautifulSoup传入的必须为字符串,所以进行转换

page_url = str(i)
soup = BeautifulSoup(page_url,{'class': 'houseListTitle'})[0]
# 详细<a href="https://www.jb51.cc/tag/yemian/" target="_blank" class="keywords">页面</a>的<a href="https://www.jb51.cc/tag/hanshu/" target="_blank" class="keywords">函数</a><a href="https://www.jb51.cc/tag/diaoyong/" target="_blank" class="keywords">调用</a>
get_page_detail(result_href.attrs['href'])

进行下一页的爬取

result_next_page = soup_idex.find_all('a',{'class': 'aNxt'})
if len(result_next_page) != 0:

函数进行递归

get_page(result_next_page[0].attrs['href'])

else:
print('没有下一页了')

进行字符串中空格,换行,tab键的替换及删除字符串两边的空格删除

def my_strip(s):
return str(s).replace(" ","").replace("\n","").replace("\t","").strip()

由于频繁进行BeautifulSoup的使用,封装一下,很鸡肋

def my_Beautifulsoup(response):
return BeautifulSoup(str(response),'html.parser')

详细页面的爬取

def get_page_detail(url):
response = requests.get(url,headers=header)
if response.status_code == 200:
soup = BeautifulSoup(response.text,'html.parser')

标题什么的一大堆,哈哈

result_title = soup.find_all('h3',{'class': 'long-title'})[0]
result_price = soup.find_all('span',{'class': 'light info-tag'})[0]
result_house_1 = soup.find_all('div',{'class': 'f<a href="https://www.jb51.cc/tag/irs/" target="_blank" class="keywords">irs</a>t-col detail-col'})
result_house_2 = soup.find_all('div',{'class': 'second-col detail-col'})
result_house_3 = soup.find_all('div',{'class': 'third-col detail-col'})
soup_1 = my_Beautifulsoup(result_house_1)
soup_2 = my_Beautifulsoup(result_house_2)
soup_3 = my_Beautifulsoup(result_house_3)
result_house_tar_1 = soup_1.find_all('dd')
result_house_tar_2 = soup_2.find_all('dd')
result_house_tar_3 = soup_3.find_all('dd')
'''
文博公寓,省实验中学,首付只需70万,大三房,诚心卖,价可谈 270万
宇泰文博公寓 金水-花园路-文博东路4号 2010年 普通住宅
3室2厅2卫 140平方米 南北 中层(共32层)
精装修 19285元/m&sup2; 81.00万
'''
print(my_strip(result_title.text),my_strip(result_price.text))
print(my_strip(result_house_tar_1[0].text),my_strip(my_Beautifulsoup(result_house_tar_1[1]).find_all('p')[0].text),my_strip(result_house_tar_1[2].text),my_strip(result_house_tar_1[3].text))
print(my_strip(result_house_tar_2[0].text),my_strip(result_house_tar_2[1].text),my_strip(result_house_tar_2[2].text),my_strip(result_house_tar_2[3].text))
print(my_strip(result_house_tar_3[0].text),my_strip(result_house_tar_3[1].text),my_strip(result_house_tar_3[2].text))

if name == 'main':

url链接

url = 'https://zhengzhou.anjuke.com/sale/'

页面爬取函数调用

get_page(url)

由于自己边写博客,边写的代码,所以get_page函数中进行了一些改变,就是下一页的递归调用需要放在函数后面,以及进行封装了两个函数没有介绍,

而且数据存储到MysqL也没有写,所以后期会继续跟进的,thank you!!!

以上这篇python爬取安居客二手房网站数据(实例讲解)就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持编程之家。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐