1
我需要在我的应用程序中构建某种分析功能。在高峰时段,我预计会每秒收到15000个新记录。为了提高速度,我将使用Redis进行写入。但是书面数据应该格式化并以某种方式发送给BigQuery for OLAP。什么是最有效的方法呢?如何定期将Redis数据发送到第三方服务?
我能想到的两种方法:
- 具有将要定期连接到同一 的Redis实例/集群,并得到书面资料,并使用他们的API 批量插入BigQuery的一个单独的应用程序。
- 使用Lua脚本定期将Redis键和值发送到 BigQuery。
就像我的阅读和研究一样,Lua脚本似乎是一个快速解决方案。但是我没有任何经验,我也没有意识到有限制。例如,我可以通过由Redis运行的Lua脚本发送HTTP API调用吗?错误处理呢?
因此,这里的问题:
你有什么建议,以实现我上面提到的需求?
- a)一个单独的应用程序
- b)中的Lua脚本
- C)其它混合
- d)(因此,是什么?)
当然和,为什么呢?
谢谢
感谢您的回答费利佩。标题是我正在寻找的。但是,该存储库看起来非常个人化,我担心它不是生产就绪代码。你有没有在生产中使用它? – scaryguy
我还没有使用它,但这个演示文稿可能有助于http://www.slideshare.net/aftership/stream-billions-of-data-to-google-big-query –
似乎值得去尝试:)我'我会试一试,让你知道它是如何发展的。谢谢! – scaryguy