我有一个庞大的视频数据集,我使用名为process.py
的python脚本进行处理。问题是处理包含6000个视频的所有数据集需要很长时间。所以,我想出了分割该数据集例如为4个的想法和相同的代码复制到不同的Python脚本(例如process1.py
,process2.py
,process3.py
,process3.py
)并运行每一个在不同的外壳与所述数据集的一个部分。运行Python脚本并行
我的问题是会带来我什么在性能方面?我有一个10核心的机器,所以如果我能够利用这种多核结构,这将是非常有益的。我听说有关Python的multiprocessing
模块,但不幸的是,我不太了解它,并且考虑到我将使用它的功能,我没有编写我的脚本。在不同的shell中启动每个脚本的想法是无意义的吗?有没有办法选择每个脚本使用哪个核心?
哪些操作系统?例如,Windows或Linux。 –
Linux(Ubuntu 14.04)。 – chronosynclastic