2017-08-01 73 views
-1

我有一个场景,其中事件中心每10秒获取一次数据,这些数据传递给流分析,然后传递给Azure SQL Server。技术团队提出了关于Azure SQL无法处理大量数据的担忧,如果数据增加2,00,00,000。然后停止工作。Azure SQL无法处理传入的流分析数据

请指导我是否是Azure SQL的实际问题,如果是的话可以请您提出解决方案。

+2

让我明白这一点。 eventhub每十秒收到一个事件,该事件将发送到Azure Stream Analytics(ASA),并从那里存储在Sql Server中。在ASA作业中是否发生聚合或者存储在Sql Server中的事件是否如此? –

+0

eventhub中有多个事件应通过流分析传递给Azure SQL。 –

+0

这不是我的问题的完整答案。 –

回答

2

请记住,4TB是Azure SQL Premium instance的绝对最大尺寸。如果您计划为您的用例存储所有事件,那么这将会很快填满。考虑使用CosmosDbEvent Hub Capture,如果您确实需要无限制地存储消息,并在使用SQL DW或ADLS处理后使用SQL进行聚合。

请记住,要优化事件中心,您必须有一个分区策略来优化吞吐量。 See the docs

+0

感谢您的回复。 –