1
例如,我的Spark集群有100个节点(工作人员),当我运行一个作业时,我只希望它在大约10个特定节点上运行,我应该如何实现这一点。顺便说一句,我正在使用Spark独立模块。如何在特定节点上运行Spark作业
为什么需要上述要求:
One of my Spark job needs to access NFS, but there are only 10 nodes were
permitted to access NFS, so if the job was distributed on each Worker nodes(100 nodes),
then access deny exception would happen and the job would failed.
添加更多详细信息(例如,设置的作业,配置,作业代码等)。 –
Mesos上的Spark允许您根据属性和资源设置约束,但AFAIK standalone不具备此类功能。你为什么需要这个? – zero323
@ zero323谢谢,我修改了我的问题。 – Jack