我试图连接到使用Spark JDBC从Teradata中提取数据。我在主父目录上创建了一个“lib”目录,并放置了外部Teradata JAR并运行了sbt包。另外,我还在我的spark-shell命令中提供了“--jars”选项来提供jar。然而,当我运行火花外壳,它似乎并没有找到类使用Spark JDBC连接到Teradata
Exception in thread "main" java.lang.ClassNotFoundException: com.teradata.hadoop.tool.TeradataImportTool
然而,当我做“罐子TVF”的jar文件,我看到了类。不知何故,Spark实用程序无法找到该jar。还有什么我需要做的,所以Spark能找到它吗?请帮助
尝试添加到你的脂肪罐子。这帮助我处于类似的情况。 – morfious902002