如何解决带有 string.split 的大文件中的 Java 堆空间错误
我在另一台机器上有一个堆空间错误,但它在我的机器上运行 我不能冒险另一台机器的属性。 如何在不使用的情况下解决此问题 扫描仪.java ?
string.split 的参数是否正确,用 " " 进行空格后拆分以将字符串拆分成几部分?
[文件:]
U 1 234.003 30 40 50 true
T 2 234.003 10 60 40 false
Z 3 17234.003 30 40 50 true
M 4 0.500 30 40 50 true
/* 1000000+ lines */
java.lang.OutOfMemoryError: Java heap space
at java.base/java.util.Arrays.copyOfRange(Arrays.java:3821)
at java.base/java.lang.Stringlatin1.newString(Stringlatin1.java:764)
at java.base/java.lang.String.substring(String.java:1908)
at java.base/java.lang.String.split(String.java:2326)
at java.base/java.lang.String.split(String.java:2401)
at project.FileR(Fimporter.java:99)
public static DataBase File(String filename) throws IOException {
BufferedReader fs = new BufferedReader(new FileReader(filename),64 * 1024);
String line;
String[] wrds;
String A; int hash; double B; int C; int D; boolean E; DataBase DB = new DataBase();
while (true) {
line = fs.readLine();
if (line == null) {break;}
wrds = line.split(" "); /* this is line 99 in the error-message */
hash = Integer.parseInt(wrds[1]);
B = Double.parseDouble(wrds[2]);
C = Integer.parseInt(wrds[3]);
D = Integer.parseInt(wrds[4]);
E = Boolean.parseBoolean(wrds[5]);
// hash is hashcode for all values B C D E in DataBase DB
DB.listB.put(hash,B);
DB.listC.put(hash,C);
DB.listD.put(hash,D);
DB.listE.put(hash,E);
}
解决方法
如何在不使用 Scanner.java 的情况下解决此问题?
Scanner
不是问题。
如果您使用此代码获得 OOME,最可能的根本原因如下:
DB.listB.put(hash,B);
DB.listC.put(hash,C);
DB.listD.put(hash,D);
DB.listE.put(hash,E);
您似乎将所有数据加载到 4 个地图中。 (您还没有向我们展示相关代码……但我在这里进行了有根据的猜测。)
我的第二个猜测是您的输入文件非常大,在上述数据结构中保存它们所需的内存量对于“其他”机器的堆来说太大了。 >
OOME 出现在 String.split
调用中的事实并不表示 split
本身存在问题。这就是俗话说的“压死骆驼的稻草”。问题的根本原因在于您对数据进行拆分后的处理方式。
可能的解决方案/变通方法:
-
增加“其他”机器上的堆大小。如果您没有设置
-Xmx
或-Xms
选项,JVM 将使用默认的最大堆大小......通常是物理内存的 1/4。阅读
java
命令的 command documentation 以了解-Xmx
和-Xms
的作用以及如何设置它们。 -
使用内存效率更高的数据结构:
-
创建一个类来表示由 B、C、D、E 值组成的元组。然后用这些元组的映射替换这 4 个映射。
-
使用内存效率更高的
Map
类型。 -
考虑使用已排序的元组数组(包括哈希)并使用二分搜索来查找它们。
-
-
重新设计你的算法,这样它们就不会同时需要内存中的所有数据;例如将输入拆分为较小的文件并分别处理它们。 (这可能是不可能的......)
如果我没记错的话,您可以在启动 jar 文件时分配更多的堆大小,例如:
java -Xmx256M -jar MyApp.jar
这意味着,您可以更改这些设置。
但话又说回来,仅仅增加堆大小并不能解决这个问题,如果文件变大,oom 的机会就会增加。
您可以考虑在处理之前拆分大文件,例如只处理前 X 行,然后强制 GC 运行(通过清零),然后处理下一行。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。