如何解决如何获取网页抓取链接
我想用一些 Python 库(例如,Beautiful Soup)创建一个网页抓取来收集此页面上的 YouTube 链接:
https://www.last.fm/tag/rock/tracks
基本上,我想下载歌曲的标题、艺术家的名字和 Youtube 的链接。有人可以帮我写一些代码吗?
解决方法
您可以这样做:
from bs4 import BeautifulSoup
import requests
url = 'https://www.last.fm/tag/rock/tracks'
headers = {
"User-Agent": "Mozilla/5.0 (iPhone; CPU iPhone OS 5_1 like Mac OS X) AppleWebKit/534.46 (KHTML,like Gecko) Version/5.1 Mobile/9B179 Safari/7534.48.3"
}
links = []
response = requests.get(url,headers=headers)
response = requests.get(url,headers = headers)
soup = BeautifulSoup(response.content,'html.parser')
soup.encode('utf-8')
urls = soup.find_all(class_ = 'chartlist-name')
for url in urls:
relative_link = url.find('a')['href']
link = 'https://www.last.fm/' + relative_link
links.append(link)
print(links)
使用函数 soup.find_all
,您可以找到所有带有类的标签:“chartlist-name”。
for
循环用于删除 html 标签并附加“链接”列表中的链接
将来,提供一些代码来显示您的尝试。
我已经扩展了 Fabix 答案。以下代码获取源网站上所有 20 个页面的 Youtube 链接、歌曲名称和艺术家。
from bs4 import BeautifulSoup
import requests
master_url = 'https://www.last.fm/tag/rock/tracks?page={}'
headers = {
"User-Agent": "Mozilla/5.0 (iPhone; CPU iPhone OS 5_1 like Mac OS X) AppleWebKit/534.46 (KHTML,like Gecko) Version/5.1 Mobile/9B179 Safari/7534.48.3"
}
for i in range(1,20):
response = requests.get(master_url.format(i),headers=headers)
soup = BeautifulSoup(response.content,'html.parser')
chart_items = soup.find_all(class_='chartlist-row')
for chart_item in chart_items:
youtube_link = chart_item.find('a')['href']
artist = chart_item.find('td',{'class':'chartlist-artist'}).find('a').text
song_name = chart_item.find('td',{'class': 'chartlist-name'}).find('a').text
print('{},{},{}'.format(song_name,artist,youtube_link))
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。