微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Python第十四次知识点学习---爬网页

目录

一、爬搜狗首页的源码

爬搜狗首页的源码

import requests
from bs4 import BeautifulSoup

resp = requests.get('https://123.sogou.com/')#请求搜狗首页
header = {"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.81 Safari/537.36 SE 2.X MetaSr 1.0"}
print(resp)#打印请求结果的状态码
print(resp.content)#打印请求到的网页源码
bsobj = BeautifulSoup(resp.content,'lxml')#将网页源码构造成BeautifulSoup对象,方便操作
a_list = bsobj.find_all('a')#获取网页中所有a标签对象
for a in a_list:
    print(a.get('href'))#获取a标签对象的href属性,那这个对象指向的链接地址

二、简单保存搜狗首页数据

简单保存搜狗首页数据

import requests
from bs4 import BeautifulSoup

resp = requests.get('https://123.sogou.com/')#请求搜狗首页
header = {"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.81 Safari/537.36 SE 2.X MetaSr 1.0"}
print(resp)#打印请求结果的状态码
print(resp.content)#打印请求到的网页源码

bsobj = BeautifulSoup(resp.content,'lxml')#将网页源码构造成BeautifulSoup对象,方便操作
a_list = bsobj.find_all('a')#获取网页中所有a标签对象
text = ' '#创建一个空字符串
for a in a_list:
    href = a.get('href')#获取a标签对象的href属性,那这个对象指向的链接地址
    text += href+'\n'#加入到字符串中,并换行
with open('url.txt','w') as f:#在当前路径下,以写的方式打开一个名为‘url.txt’,如果不存在则创建
    f.write(text)#将text里的数据写入文本中

运行后会出现一个url.txt文件,数据就在里面。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐