微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

更快的库存数据存储到数据库

如何解决更快的库存数据存储到数据库

我从事某个项目已有一段时间,我想知道你们所有人都能帮助我找到解决方案的方法

基本上是一个python库存管理项目,让我们假设我们正在处理500只库存 它可以每0.5秒更新一次,我将它们存储在dict(500)-> DataFrames中 每分钟之后,我们需要处理所有秒数并将其转换为分钟数据并将其存储到数据库

我面临的问题是我无法将500个单独的条目存储到数据库中 我使用currency而不是CSV,因为它速度更快,但问题是仍然需要10秒钟来处理打开每个csv文件并将其存储的信息

我尝试将主字典变成共享内存字典,并拆分为多个从属进程,但仍然不够好 我只是想知道您对这个问题的看法

如果有足够快的数据库可以做到这一点,请告诉我 注意:这是一个时间序列数据库,因此我正尝试为其使用influx数据库

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。