在Scala中,我需要使用相同的连接来运行多个查询并使用spark上下文将输出写入HDFS。它必须是相同的连接,因为一些查询会创建易失性表,如果连接关闭,易失性表将会消失。使用sparkcontext将结果集写入hdfs(一个连接 - 多个查询)
我知道下面的功能:
val jdbcDF = sqlContext.read.format("jdbc").options(
Map("url" -> "jdbc:postgresql:dbserver",
"dbtable" -> "schema.tablename")).load()
不过这需要每一个我运行一个查询时创建一个连接。还有其他的选择吗?我可以从连接对象中获取结果集,但是如何让rs到sqlcontext将数据写入HDFS?
请chec我的答案。希望有所帮助! –
你不能将一个查询/连接中的所有易失性表信息插入登台表中,并再次执行另一个查询来单独选择/创建易失性表? –
我的回答很有用? –