3
我试图在两个Spark RDD上进行连接。我有一个链接到类别的交易日志。我已经格式化了我的事务RDD,并将类别ID作为关键字。Spark加速指数缓慢
transactions_cat.take(3)
[(u'707', [u'86246', u'205', u'7', u'707', u'1078778070', u'12564', u'2012-03-02 00:00:00', u'12', u'OZ', u'1', u'7.59']),
(u'6319', [u'86246', u'205', u'63', u'6319', u'107654575', u'17876', u'2012-03-02 00:00:00', u'64', u'OZ', u'1', u'1.59']),
(u'9753', [u'86246', u'205', u'97', u'9753', u'1022027929', u'0', u'2012-03-02 00:00:00', u'1', u'CT', u'1', u'5.99'])]
categories.take(3)
[(u'2202', 0), (u'3203', 0), (u'1726', 0)]
事务日志是大约20 GB(350百万的行)。 类别列表小于1KB。
当我运行
transactions_cat.join(categories).count()
星火开始很慢。我有一个有643个任务的阶段。前10项任务约需1分钟。然后每个任务变得越来越慢(约60分钟左右)。我不确定有什么问题。
请检查这些截图以获得更好的主意。
我正在星火1.1.0与使用Python外壳50 GB的总内存4名工人。 计算交易RDD只是相当快(30分钟)