2017-02-27 98 views
0

我从管理多个单实例每个租户10GB分区以利用分区键(tenantId)更具扩展性的溶液迁移缩放。之前我通过收集进行了分区,但我对通过迁移到分区集合所获得的成本节约感兴趣,因为我的大多数租户不需要超过存储空间的1-5gb。我建立了我最初的收集与最低RU设置(用于测试和节约成本),10GB的情况下,像这样:DocumentDB与分区类别

enter image description here

现在,当谈到时间来扩展我又回到了门户网站,点击规模和我没有看到一个方法来增加我的10GB的分区容量更大:

enter image description here

定价等级被锁定,我无法提高我的集合大小10GB过去。

几个问题:

1.围绕这对我来说只有这样才能使支持请求?如果您翻阅信息图标,门户网站会说明这一点,但它引用了更好的缩放比例方法吗?然而,我正在寻找一些关于此的明确信息,因为在生产场景中提出支持请求是站不住脚的,因为我可能需要在运行中增加(并减少)容量!

2.是否有(或将有)一种方法来自动缩放分区?例如,我可以允许我的初始10gb以10gb的增量自动缩放到50gb - 但提醒我允许它超过50gb?

3.是否有(或将有)通过C#SDK以编程方式缩放分区的方式?

4.什么是缩放的增量单位?我假设它是在10gb增量,但我找不到任何明确的文件。

5.我应该假设我的PartitonKey仍受10GB存储限制的限制吗?如果是这样的话:是否有即将到来的(或现有的)场景可以让PartitionKey在这个10GB边界之外增长?再次,我不得不在这里作出假设,因为文档是零星的,非常模糊!

+0

如果您需要为您的DocumentDb集合自动缩放,请查看CloudMonix @ http://cloudmonix.com - 文档DB的自动缩放无法通过Azure – Igorek

回答

1

根据DocumentDB Pricing,我们可以知道每个集合都是按照每小时100单位储存的数据量(以GB为单位)和保留的吞吐量按小时计费。正如您所说,目前它只能让我们在Azure门户上的Scale blade下使用adjust throughput level。如果您想将其扩展到更高的吞吐量(> 10,000 RU/s)或更大的数据存储(>更高的数据存储空间),那么根据您的描述,我们可以发现您创建了具有最低吞吐量的单分区集合。 10GB),则可以使用DocumentDB数据迁移工具将数据从单分区集合迁移到分区集合。 This article显示了如何从单分区集合迁移到分区集合,请参阅它。

+0

根据您所说的,我可以开始使用的唯一方法分区集合(不必担心在稍后的日期进行迁移)是从250GB计划开始的?这对我来说似乎有点愚蠢。特别是因为如果我把它设置到最低的RU水平,成本是6倍。这也是一个令人难以置信的数量的未使用的存储我会付出! – CodeAbundance

+0

这是否也意味着如果我选择250GB的计划,然后超过它,我将不得不发送一个请求来增加这个数额(比如说500GB),然后必须将250GB数据迁移到新的500GB计划? – CodeAbundance