如何解决遵循网站链接的重复过程BeautifulSoup:PY4E
我正在用Python编写代码,以使用Beautiful汤获得URL中的所有'a'标签。这是我一直在python 3.7中尝试使用的代码,但是它一直在从第一页打开链接,并且不跟随链接。我是python的新手,我已经摸索了一段时间,现在试图弄清楚这一点。谁能告诉我我在这里做错了什么吗?非常感谢您的帮助。
import urllib.request,urllib.parse,urllib.error
from bs4 import BeautifulSoup
import ssl
# Ignore SSL certificate errors
ctx = ssl.create_default_context()
ctx.check_hostname = False
ctx.verify_mode = ssl.CERT_NONE
url= input("Enter URL: ")
#html = urllib.request.urlopen(url,context=ctx).read()
#soup = BeautifulSoup(html,'html.parser')
count = int(input('Enter count:'))
position = int(input('Enter Position:'))
lst1 = list()
lst2 = list()
lst_3 = list()
print("Retrieving:",url)
# Retrieve all of the anchor tags#
for i in range(count):
html = urllib.request.urlopen(url,context=ctx).read()
soup = BeautifulSoup(html,'html.parser')
tags = soup('a')
for tag in tags:
h1= tag.get('href',None)
h2 = tag.contents[0]
lst1.append(h1)
lst2.append(h2)
y = lst1[position-1]
url = y
print('Retrieving:',url)
lst_3.append(y)
#print(lst1)
print(lst_3)
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。