2015-06-20 176 views
2

我在Databrick的Cloud中运行Spark 1.4。我将一个文件加载到我的S3实例中并加载它。安装工作。但我无法创建RDD: enter image description here enter image description here“remoteContext对象没有属性”

dbutils.fs.mount("s3n://%s:%[email protected]%s" % (ACCESS_KEY, SECRET_KEY, AWS_BUCKET_NAME), "/mnt/%s" % MOUNT_NAME) 

任何想法?

sc.parallelize([1,2,3]) 
rdd = sc.textFiles("/mnt/GDELT_2014_EVENTS/GDELT_2014.csv") 

回答

2

你已经做了伟大的工作,让你的数据装入DBFS这是伟大的,它看起来像你只是一个小错字。我怀疑你想要使用sc.textFile而不是sc.textFiles。祝您与Spark一起幸运。