微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

如何遍历 CSV 文件 URL 调用 PYTHON

如何解决如何遍历 CSV 文件 URL 调用 PYTHON

我有一个包含 100 万个 URL 的文件 (urls.csv)。每一行都是一个新的网址,如:

  1. https://example.com/1
  2. https://example.com/2 等等......

我想获取每个 url 末尾的 json 文件,并将其保存为每个 url 的单独 json 文件文件名按 1,2,3,n 的顺序...

这是我目前所拥有的:

import requests
import csv

url = []

with open('urls.csv') as csvfile:    
    csvReader = csv.reader(csvfile)    
    for row in csvReader:        
        url.append(row[0])

headers = {'Accept': 'application/json'}

response = requests.get(url,headers=headers)

with open('outputfile.json','wb') as outf:
    outf.write(response.content)

我应该如何解决这个问题?

解决方法

试试这个:

import requests
import csv

urls = []

with open('urls.csv') as csvfile:    
    csvReader = csv.reader(csvfile)    
    for row in csvReader:        
        urls.append(row[0])

headers = {'Accept': 'application/json'}

for url in urls:
    response = requests.get(url,headers=headers)
    filename = url.split('/')[-1]
    with open(f'{filename}.json','wb') as outf:
        outf.write(response.content)

假设您的第 3 个网址是 https://example.com/3,代码将保存一个名为 3.json 的文件以用于相应的响应。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。