我目前正在为JAVA中的Spark开发,在发布到我们的Amazon集群之前,我使用Spark在本地测试我的代码。我的问题是如果有任何解决方案来利用我的GPU?目前我可以通过分配我的CPU的多个内核,或者将更多的RAM设置在sparkConf.set("spark.executor.memory", "8g");
或--driver-memory 4g
开关的执行器和驱动程序旁边。但显然使用GPU进行计算任务是非常有效的。有没有办法让我的本地运行Spark使用我的GPU? CUDA似乎是流行语,但我无法找到关于如何为Spark设置的任何内容。Apache Spark - 本地优化和利用CUDA GPU
另外,什么是RAM分配的最佳设置?我有16GB可用,我应该分配给驱动程序多少以及执行多少?
你有关于优化本地Spark的更多提示吗?
谢谢!
太棒了!谢谢!你知道关于最佳RAM分配的一切吗?我想知道司机或执行者是否需要更多。 –
另外,有没有办法让我的SparkCL在Windows下运行?如果我只是在Windows上获得Git,按照指示克隆这些东西并开始运行(目录已更改),它会运行吗? –
SparkCL有一个视频教程,它们在Windows机器上执行https://www.youtube.com/watch?v=Na6GeOttZhA&index=5&list=PLOJY6HSc6DWnpPSmLKmr4GzkRv11QjdXw。我使用OSx和Ubuntu。这些说明也工作得很好。 –