如何解决nodejs强大的分段上传达到服务器RAM限制
我需要能够处理大文件分段上传(总计20GB +,每个文件2GB),并且我在t3.large实例(8GB内存)的Amazon Elastic Beanstalk上运行我的node.js服务器。 / p>
当上传类似于前面提到的大小的文件时,服务器会在开始处理请求后(崩溃完成后)使服务器崩溃,我敢肯定这是因为服务器的RAM和交换用完了。
据我所知,这不应该发生,我看不到所有文件的内容都立即出现在内存中的原因,应该使用较小的缓冲区来处理数据传输/读取,所以我很难解决这个问题。
下面是我的node.js代码的一些相关部分:
__get__
s3Service.runPipeline迭代文件数组,并将其上传到Amazon s3,一次读取小于2GB的文件并在单个请求中上传,将更大的文件以10MB的块上传。我认为此功能不会引起任何问题,在我尝试将文件上传到s3之前,文件似乎已加载到内存中。
感谢您的帮助。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。