如何解决如何遍历 CSV 文件 URL 调用 PYTHON
我有一个包含 100 万个 URL 的文件 (urls.csv)。每一行都是一个新的网址,如:
我想获取每个 url 末尾的 json 文件,并将其保存为每个 url 的单独 json 文件,文件名按 1,2,3,n 的顺序...
这是我目前所拥有的:
import requests
import csv
url = []
with open('urls.csv') as csvfile:
csvReader = csv.reader(csvfile)
for row in csvReader:
url.append(row[0])
headers = {'Accept': 'application/json'}
response = requests.get(url,headers=headers)
with open('outputfile.json','wb') as outf:
outf.write(response.content)
我应该如何解决这个问题?
解决方法
试试这个:
import requests
import csv
urls = []
with open('urls.csv') as csvfile:
csvReader = csv.reader(csvfile)
for row in csvReader:
urls.append(row[0])
headers = {'Accept': 'application/json'}
for url in urls:
response = requests.get(url,headers=headers)
filename = url.split('/')[-1]
with open(f'{filename}.json','wb') as outf:
outf.write(response.content)
假设您的第 3 个网址是 https://example.com/3
,代码将保存一个名为 3.json
的文件以用于相应的响应。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。