我有以下DataFrame例如: Provider Patient Date
Smith John 2016-01-23
Smith John 2016-02-20
Smith John 2016-03-21
Smith John 2016-06-25
Smith Jill 2016-02-01
Smith Jill 2016-03-10
James Jil
我必须使用spark将sql server表中的数据加载到本地文件系统中的csv中。以下是我使用的代码。 val sqlContext = new org.apache.spark.sql.SQLContext(sc)
val jdbcSqlConnStr = "jdbc:sqlserver://HostIP:1433;databaseName=DBName;user=UserName;pass
我正在使用scala应用程序和spark依赖项。 这里我有什么 log4j.properties # Here we have defined root logger
log4j.rootLogger=WARN,ERROR,R
#Direct log messages to file
log4j.appender.R=org.apache.log4j.RollingFileAppender