我无法决定通过Azure存储处理以下情况的最佳方法。Azure Drive vs Block Blob vs表
- 〜1500〜1MB之间+ CSV文件〜500MB整体〜20GB的数据
- 每个文件使用完全相同的模型,每个model.toString()是〜50个字符〜400byte
- 每个企业一天,在6小时的时间内,每分钟约有8000行新增行数
- 基于属性值,每行都会显示正确的文件
- 只要支持多读即使很少快照期延迟数秒没问题。
我想用阻止斑点但下载〜400MB的单个文件到计算机,只需添加一行,并将它上传没有任何意义,我无法找到周围的其他方式。
存在使用页斑点遗憾的是它不通过的SDKv2支持,使我感到紧张的支撑
和最后一个可能的中止驱动器的选择是表看起来比读几行等成千上万的行继续可能成为一个问题
基本上,我更喜欢在立即检索数据时编写文件。但是,如果它确实值得放弃,我可以在一天结束时接受单个更新,这意味着每个文件约300-1000行
什么是处理这种情况的最佳方法?
仅供参考:您可以修改现有块BLOB和添加新的模块,以它没有重新上传完整的BLOB。或者至少REST API支持:http://msdn.microsoft.com/en-us/library/windowsazure/dd179467.aspx。 – MikeWo 2013-03-11 16:50:23
我无法回答,如果这种方法是合理的,因为我不知道什么是读这些文件。你提到连续阅读。什么在读他们?消费者是否缓存任何数据? – MikeWo 2013-03-11 16:52:11
谢谢@MikeWo我会定义一下。工作人员角色通过SDK读取它们。缓存超出了这个问题的范围。 – cilerler 2013-03-11 17:52:14