如何解决十亿次排列后Itertools饱和
我编写了以下代码来计算列表列表的所有排列之间获得的总和的平均值:
import numpy as np
import itertools
r = 13
c = 5
a = np.arange(r*c).reshape(r,c)
a = list(itertools.product(*a))
res = sum([sum(e) for e in a])/len(a)
代码崩溃,因为r似乎太大了,而itertools / python无法处理它。还有其他方法可以在不使代码崩溃的情况下计算 res 吗?
解决方法
您可以不必要地先收集products
,然后再收集sums
中的单个lists
,而您只需对迭代器进行迭代即可。您也不需要列表中的len
,因为您可以直接计算产品数量。
res = sum(sum(e) for e in itertools.product(*a))/c**r
这将消耗更少的内存,这可能使您的计算机免于死机或崩溃。但是,对于r=13
和c=5
,这仍然意味着要测试c**r = 1,220,703,125
组合,这可能对Python来说太多了。
但是,由于您获得的是 all 个产品,因此每个元素在所有产品中的显示次数相同,因此您根本不必实际计算和迭代产品。相反,您可以像这样直接计算产品的平均和:
res = sum(sum(a)) // c # here,a is the numpy array,not the product iterator
(这适用于所有具有相同元素数量的列表;如果列表具有不同的大小,则公式会稍微复杂一些,但仍可以直接计算而没有任何循环。)
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。