我使用Azure的数据工厂从Azure的数据存储湖的数据复制到宇宙DB的集合。我们将在数据湖中有几千个JSON文件,每个JSON文件都是大约。 3 GB。我正在使用数据工厂的复制活动,并且在初始运行时,使用默认设置将一个文件加载到集群设置为10000 RU/s和数据工厂需要3.5小时。现在我已经将它扩展到50000 RU/s,将cloudDataMovementUnits设置为32,并将writeBatchSize设置为10以查看它是否提高了速度,并且同一文件现在需要2.5小时才能加载。加载成千上万个文件的时间仍将长久存在。如何从Azure的数据副本湖加快宇宙DB
有没有办法以更好的方式做到这一点?
你是说你试图将单个文档加载到大小为GB的Cosmos中?宇宙中文件的最大尺寸是2MB –
不,如果我不清楚,对不起。每个文件都包含数百万个JSON文档。JSON文档包含位置数据,我们需要进行空间计算,这就是我们选择Cosmos DB的原因。 –