azure-data-factory

    1热度

    1回答

    方案:存储在西欧,目的地,西欧SQL数据库源Blob存储。由于数据工厂在西欧不可用,如果我在北欧创建我的数据工厂并使用复制活动,我的数据将通过北欧移动或停留在西欧。

    3热度

    1回答

    我是数据工厂的新手。 Data Factory v2刚刚发布了类似于SSIS工作的新控制流和数据流。 有没有办法将现有的SSIS dtsx文件迁移到数据工厂管道?

    1热度

    1回答

    我已经有大约60个文件,当它们应该完成时没有出现,因此数据工厂已经错过了它们的到来并将它们标记为未通过验证。 要重新运行,我知道的唯一方法是单独单击每个,然后在Azure门户中“重新运行”或使用powershell。 有没有办法在Azure门户中批量重新运行,或者有什么方法可以在监视器和管理应用程序中重新运行外部源?

    0热度

    1回答

    蔚蓝数据工厂中的自定义活动如何响应暂停和恢复管道命令?

    0热度

    1回答

    我们有一个方案,我们希望使用Azure数据工厂将数据从多个Azure SQL数据库复制到Azure Data Lake Store。由于不同组拥有很多不同的数据库,我们希望自动化复制过程,包括生成管道,根据配置复制活动。达到此目的的最佳方法是什么?目前我们正在关注Azure .Net SDK,但是又会有很多代码需要管理。

    0热度

    1回答

    我已经使用sliceIdentifierColumnName设置了ADF管道,该管道运行良好,因为它按照预期填充了GUID字段。然而,最近这个字段停止填充,刷新将工作,但sliceIdentifierColumnName字段的值将为null,或者偶尔负载会失败,因为它试图用值1填充此字段,导致切片加载失败。 这个变化发生在一个时间点之前,它完美地工作之前,它反复无法正确填充字段。我确信没有对导致突

    1热度

    1回答

    我在ADF中进行自定义活动,它涉及从Azure存储Blob中读取多个文件,对它们进行一些处理,然后将结果文件写入Azure Data Lake Store。 最后一步是我停下来的地方,因为据我所见,.NET SDK只允许从本地文件上传。 有什么办法可以(以编程方式)从本地文件上传文件到ADL Store,它是而不是?可能是一个blob或流。如果没有,任何解决方法?

    0热度

    2回答

    当前我正在为其中一个数据导出设置管道。 从流水线调度我的期望是: - 流水线调度应该得到触发00:00 AM PST时间每天 - 目前我开始&结束时间配置如下: "start": "2017-10-10T07:00:00Z", "end": "2017-10-12T07:00:00Z" 按我的理解,我刚刚将UTC时间片调整了+7小时,以便在PST时间00:00 AM的同一天触发我的

    1热度

    3回答

    我有一个调用U-SQL转换的管道。 使用门户部署链接服务,数据集,管道 链接服务JSON for ADLS支持ServicePrincipal,但对于ADLA,如果我声明servicePrincipalKey,则显示错误。 确实给笔者门户支持链接服务 “AzureDataLakeAnalytics”还是我需要使用VS部署? 有没有样品?因为下面的JSON不起作用 下面的示例显示错误: { "na

    0热度

    1回答

    我有下面的配置文件,它根据活动编号将参数传递给ADF管道。但我想,它应该按照活动名称传递,因此 如果我重新排序管道,我不需要重新配置我的配置文件,因此它会根据活动名称进行标识。 "PL_DATA_IL_Omni_Attend": [ { "name": "$.properties.start", "value": "2016-02-08T19:00:00Z"