我有一个包含约200,000个数据点的数据框和一个看起来像这样的列(1个数据点的示例):
'{"id":342,"name":"Web","slug":"technology/web","position":15,"parent_id":16,"color":6526716,"urls":{"web":{"discover":"http://www.kickstarter.com/discover/categories/technology/web"}}}'
df["cat"], df["slug"] = np.nan, np.nan
for i in range(0, len(df.category)):
df["cat"][i] = df.category.iloc[i].split('"name":"')[1].split('"')[0]
df["slug"][i] = df.category.iloc[i].split('"name":"')[1].split('"')[4]
效果很好,但是大约需要4个小时.有什么办法可以使速度更快?
解决方法:
与其直接操作DataFrame,不如尝试使用简单的数据类型并一次性创建一个Dataframe.除jezrael之外的另一种解决方案:
import json
cat, slug = [], []
for row in df.category:
d = json.loads(row)
cat.append(d['cat'])
slug.append(d['slug'])
df = pd.DataFrame({'cat': cat, 'slug': slug})
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。