-2
我需要每隔两个小时读取和处理将近200个文件。文件大小在500KB到10MB之间变化。阅读并处理大量带多线程的文件
什么应该是最好的实现方式?读取所有文件是一个I/O作业。另一方面,我必须将该文件中的json序列化为一个CPU作业的通用列表。
我是否需要用两种不同的并行作业将它们分开,如首先获取所有文件然后处理它们?或者在一个并行循环中一个接一个地处理和处理?
我也需要最好的存储类型。我的意思是在哪里使用并发包或只是列表?
谢谢。
您是否尝试过简单而幼稚的解决方案,逐个阅读文件,逐个处理它们? 200 * 10MB = 2GB,听起来不像您需要特别做任何事情来解决性能问题。换句话说,你**是**性能问题,还是**认为**你有性能问题? –
现在,我在一个for循环中执行get-process-repeat。它持续1小时!我认为最多10分钟 –