1
我使用HiveContext从我的Spark代码运行hive查询。无论我运行哪个查询以及它有多少数据,它总是会生成31个分区。有人知道原因吗?是否有预定义/可配置的设置?我基本上需要更多的分区。Spark SQL(通过HiveContext进行Hive查询)始终创建31个分区
我使用此代码段执行蜂房查询:
VAR pairedRDD = hqlContext.sql(HQL).rdd.map(...)
我使用星火1.3.1
谢谢, 尼廷