我知道这个问题有点奇怪。我喜欢Hadoop & HDFS,但最近与Hive Metastore合作开发SparkSQL。不使用Hadoop/HDFS使用hive metastore服务
我想使用SparkSQL作为垂直SQL引擎来运行不同数据源(如RDB,Mongo,Elastic ...)上的OLAP查询,而不需要ETL过程。然后我在Metastore中使用相应的Hive存储处理程序将不同的模式注册为外部表。
此外,在我的工作中HDFS不被用作数据源。然后,给定Map/R已经被Spark引擎取代。这对我来说听起来Hadoop/HDFS是无用的,但是以Hive的安装为基础。我不想全部购买。
我想知道如果我只启动没有Hadoop/HDFS的Hive Metastore服务来支持SparkSQL,会发生什么样的问题。我会把自己放进丛林吗?