你的位置:首页 > Java教程

[Java教程]Java高效读取大文件

1、概述

本教程将演示如何用Java高效地读取大文件。这篇文章是Baeldung ( http://www.baeldung.com/ ) 上“Java——回归基础” 系列教程的一部分。

2、在内存中读取

读取文件行的标准方式是在内存中读取,Guava 和Apache Commons IO都提供了如下所示快速读取文件行的方法:

Files.readLines(new File(path), Charsets.UTF_8);FileUtils.readLines(new File(path));

这种方法带来的问题是文件的所有行都被存放在内存中,当文件足够大时很快就会导致程序抛出OutOfMemoryError 异常。

例如:读取一个大约1G的文件:

@Testpublic void givenUsingGuava_whenIteratingAFile_thenWorks() throws IOException {  String path = ...  Files.readLines(new File(path), Charsets.UTF_8);}

这种方式开始时只占用很少的内存: (大约消耗了 0Mb内存 )

[main] INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 128 Mb[main] INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 116 Mb

然而, 当文件全部读到内存中后 ,我们最后可以看到 (大约消耗了2GB内存) :

[main] INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 2666 Mb[main] INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 490 Mb

这意味这一过程大约耗费了2.1GB的内存——原因很简单:现在文件的所有行都被存储在内存中下载地址】   。

把文件所有的内容都放在内存中很快会耗尽可用内存——不论实际可用内存有多大,这点是显而易见的。

此外, 我们通常不需要把文件的所有行一次性地放入内存中 ——相反,我们只需要遍历文件的每一行,然后做相应的处理,处理完之后把它扔掉。所以,这正是我们将要做的——通过行迭代,而不是把所有行都放在内存中。

3、文件流

现在让我们看下这种解决方案——我们将使用java.util.Scanner类扫描文件的内容,一行一行连续地读取:

FileInputStream inputStream = null;Scanner sc = null;try { inputStream = new FileInputStream(path); sc = new Scanner(inputStream, "UTF-8"); while (sc.hasNextLine()) {  String line = sc.nextLine();  // System.out.println(line); } // note that Scanner suppresses exceptions if (sc.ioException() != null) {  throw sc.ioException(); }} finally { if (inputStream != null) {  inputStream.close(); } if (sc != null) {  sc.close(); }}

这种方案将会遍历文件中的所有行——允许对每一行进行处理,而不保持对它的引用。总之 没有把它们存放在内存中 : (大约消耗了150MB内存)

[main] INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 763 Mb[main] INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 605 Mb

4、Apache Commons IO流

同样也可以使用Commons IO库实现,利用该库提供的自定义LineIterator下载地址 :

LineIterator it = FileUtils.lineIterator(theFile, "UTF-8");try {  while (it.hasNext()) {    String line = it.nextLine();    // do something with line  }} finally {  LineIterator.closeQuietly(it);}

由于整个文件不是全部存放在内存中,这也就导致相当保守的内存消耗: (大约消耗了 150MB 内存)

[main] INFO o.b.java.CoreJavaIoIntegrationTest - Total Memory: 752 Mb[main] INFO o.b.java.CoreJavaIoIntegrationTest - Free Memory: 564 Mb

5、结论

这篇短文介绍了如何 在不重复读取与不耗尽内存的情况下处理大文件 ——这为大文件的处理提供了一个有用的解决办法。

所有这些例子的实现和代码片段都可以在我的 github项目 上获取到——这是一个基于 Eclipse 的项目,所以它应该很容易被导入和运行。