如何解决与Python一起使用itertools时如何避免内存问题?
编译器返回error
运行以下代码时
import itertools
x = [11,12,13]
all_result=[p for p in itertools.product(x,repeat=1000)]
是否有办法通过调整模块设置来避免发生此类问题。我知道numpy.meshgrid中有sparse
个选项可以节省内存。
是否可以在itertools中应用类似的内容。
或者如果存在其他现有的置换模块,其处理内存要比itertools更好。
p.s。
为了更好地了解@Carcigenicate的上升,在以下代码中将使用all_result
的输出。为简单起见,假设重复设置为2,并且其中一对为{11,13}。
tot_length=0.2
steps=0.1
start_val=0
list_no =np.arange(start_val,tot_length,steps)
x,y,z = np.meshgrid(*[list_no for _ in range(3)],sparse=True)
ix = np.array(((x>=y) & (y>=z)).nonzero()).T
final_opt=list_no[ix]
final_opt[:,[0,1]] = final_opt[:,[1,0]]
# The value {11,13} will be inputted at the last line below
FTE_DEF=np.concatenate((final_opt[11,:],final_opt[13,:]))
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。