读取文件内容,然后进行处理,在java中我们通常利用 files 类中的方法,将可以文件内容加载到内存,并流顺利地进行处理。但是,在一些场景下,我们需要处理的文件可能比我们机器所拥有的内存要大。此时,我们则需要采用另一种策略:部分读取它,并具有其他结构来仅编译所需的数据。
接下来,我们就来说说这一场景:当遇到大文件,无法一次载入内存时候要如何处理。
模拟场景
假设,当前我们需要开发一个程序来分析来自服务器的日志文件,并生成一份报告,列出前 10 个最常用的应用程序。
每天,都会生成一个新的日志文件,其中包含时间戳、主机信息、持续时间、服务调用等信息,以及可能与我们的特定方案无关的其他数据。
2024-02-25t00:00:00.000+gmt host7 492 products 0.0.3 put 73.182.150.152 eff0fac5-b997-40a3-87d8-02ff2f397b44
2024-02-25t00:00:00.016+gmt host6 123 logout 2.0.3 get 34.235.76.94 8b97acae-dd36-4e83-b423-12905a4ab38d
2024-02-25t00:00:00.033+gmt host6 50 payments/:id 0.4.6 put 148.241.146.59 ac3c9064-4782-46d9-a0b6-69e4d55a5b38
2024-02-25t00:00:00.050+gmt host2 547 orders 1.5.0 put 6.232.116.248 2285a81e-c511-41b9-b0ea-a475a0a45805
2024-02-25t00:00:00.067+gmt host4 400 suggestions 0.8.6 delete 149.138.227.154 8031b639-700e-4a7c-b257-fcbed0d029ce
2024-02-25t00:00:00.084+gmt host2 644 login 6.90 get 208.158.145.204 3906a28c-56e4-4e5f-b548-591eab737aa7
2024-02-25t00:00:00.101+gmt host5 339 suggestions 0.8.9 put 173.109.21.97 c7dfec8a-5ca8-4d0d-b903-aaf65629fdd0
2024-02-25t00:00:00.118+gmt host9 87 products 2.6.3 post 220.252.90.140 e5ceef67-2f0f-4c2d-a6d2-c698598aaef2
2024-02-25t00:00:00.134+gmt host0 845 products 9.4.6 get 136.79.178.188 f28578c1-c37c-47a3-a473-4e65371e0245
2024-02-25t00:00:00.151+gmt host4 675 login 0.89 delete 32.159.65.239 d27ff353-e501-43e6-bdce-680d79a07c36
我们的代码将收到日志文件列表,我们的目标是编制一份报告,列出最常用的 10 个服务。但是,要包含在报告中,服务必须在提供的每个日志文件中至少有一个条目。简而言之,一项服务必须每天使用才有资格包含在报告中。
基础实现
解决这个问题的最初方法是考虑业务需求并创建以下代码:
public void processfiles(final list<file> filelist) { final map<localdate, list<logline>> filecontent = getfilecontent(filelist); final list<string> servicelist = getservicelist(filecontent); final list<statistics> statisticslist = getstatistics(filecontent, servicelist); final list<statistics> topcalls = gettop10(statisticslist); print(topcalls); }
该方法接收文件列表作为参数,核心流程如下:
- 创建一个包含每个文件条目的映射,其中key是 localdate,value是文件行列表。
- 使用所有文件中的唯一服务名称创建字符串列表。
- 生成所有服务的统计信息列表,将文件中的数据组织到结构化地图中。
- 筛选统计信息,获取排名前 10 的服务调用。
- 打印结果。
可以注意到,这种方法将太多数据加载到内存中,不可避免地会导致 outofmemoryerror
改进实现
就如文章开头说的,我们需要采用另一种策略:逐行处理文件的模式。
private void processfiles(final list<file> filelist) { final map<string, counter> compiledmap = new hashmap<>(); for (int i = 0; i < filelist.size(); i++) { processfile(filelist, compiledmap, i); } final list<counter> topcalls = compiledmap.values().stream() .filter(counter::alldaysset) .sorted(comparator.comparing(counter::getnumberofcalls).reversed()) .limit(10) .tolist(); print(topcalls); }
- 首先,它声明一个map(compiledmap),其中一个string作为键,代表服务名称,以及一个counter对象(稍后解释),它将存储统计信息。
- 接下来,它逐一处理这些文件并相应地更新compilemap。
- 然后,它利用流功能来: 仅过滤具有全天数据的计数器;按调用次数排序;最后,检索前 10 名。
在看整个处理的核心processfile
方法之前,我们先来分析一下counter
类,它在这个过程中也起到了至关重要的作用:
public class counter { @getter private string servicename; @getter private long numberofcalls; private final bitset dayswithcalls; public counter(final string servicename, final int numberofdays) { this.servicename = servicename; this.numberofcalls = 0l; dayswithcalls = new bitset(numberofdays); } public void add() { numberofcalls++; } public void setday(final int daynumber) { dayswithcalls.set(daynumber); } public boolean alldaysset() { return dayswithcalls.stream() .maptoobj(index -> dayswithcalls.get(index)) .reduce(boolean.true, boolean::logicaland); } }
- 它包含三个属性:servicename、numberofcalls 和 dayswithcalls
- numberofcalls 属性通过 add 方法递增,该方法为 servicename 的每个处理行调用。
- dayswithcalls 属性是一个 java bitset,一种用于存储布尔属性的内存高效结构。它使用要处理的天数进行初始化,每个位代表一天,初始化为 false。
- setday 方法将 bitset 中与给定日期位置相对应的位设置为 true。
alldaysset 方法负责检查 bitset 中的所有日期是否都设置为 true。它通过将 bitset 转换为布尔流,然后使用逻辑 and 运算符减少它来实现此目的。
private void processfile(final list<file> filelist, final map<string, counter> compiledmap, final int daynumber) { try (stream<string> linestream = files.lines(filelist.get(daynumber).topath())) { linestream .map(this::tologline) .foreach( logline -> { counter counter = compiledmap.get(logline.servicename()); if (counter == null) { counter = new counter(logline.servicename(), filelist.size()); compiledmap.put(logline.servicename(), counter); } counter.add(); counter.setday(daynumber); }); } catch (final ioexception e) { throw new runtimeexception(e); } }
- 该过程使用files类的lines方法逐行读取文件,并将其转换为流。这里的关键特征是lines方法是惰性的,这意味着它不会立即读取整个文件;相反,它会在流被消耗时读取文件。
- tologline 方法将每个字符串文件行转换为具有用于访问日志行信息的属性的对象。
- 处理文件行的主要过程比预期的要简单。它从与servicename关联的compilemap中检索(或创建)counter,然后调用counter的add和setday方法。
正如我们所看到的,在 java 中处理大文件而不将整个文件加载到内存中并不是什么复杂的事情。 files类提供了逐行处理文件的方法,我们还可以在文件处理过程中利用哈希来存储数据,这有助于节省内存。
到此这篇关于java实现读取超过内存大小的文件的文章就介绍到这了,更多相关java读取超过内存大小的文件内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!
发表评论