我有200多个MSSQL表,并且希望将数据传输到Azure Data Lake Storage。 我认为的一种方法是对动态数据流使用SSIS,即创建表名变量,并对表名和每个表运行数据流执行foreach循环。然而,这种方法似乎是错误的,虽然文件是在Data Lake存储中创建的,并且正确的方案数据不会由于错误的映射而被传输。 是否有任何通用的方式来创建一个动态数据流并传输大量的表数据?
我在ADF中进行自定义活动,它涉及从Azure存储Blob中读取多个文件,对它们进行一些处理,然后将结果文件写入Azure Data Lake Store。 最后一步是我停下来的地方,因为据我所见,.NET SDK只允许从本地文件上传。 有什么办法可以(以编程方式)从本地文件上传文件到ADL Store,它是而不是?可能是一个blob或流。如果没有,任何解决方法?