我们使用数据流从一组的PubSub话题读取和写入数据至BigQuery。我们正在为每个主题使用一个DataFlow作业,并将它们写入相关的BigQuery表。是否有可能为此编写一个Dataflow作业?的PubSub - >的BigQuery - 如何处理多个独立的主题?
我看到多个源文件,以一个输出这里:https://cloud.google.com/dataflow/pipelines/design-principles?hl=en#multiple-sources
有什么不让我只是做多的“基本”管道在同一数据流的工作就像在基本流程:https://cloud.google.com/dataflow/pipelines/design-principles?hl=en#a-basic-pipeline
的文档和我对代码的理解意味着这可以完成,但在开始努力之前我想确定一下。
Idrees,感谢信息。我们确实有一个可以生成更多数据。然而,我们在扩展的早期阶段,我宁愿现在凝结,并扩大整个集合一点,并减少复杂性。然后拔出一个开始落后的工作并将它们分开。现在总体积可能需要两台小型机器。它会迅速增长,但其中大部分增长是两个主题,而不是全部五个。我以后可以把它们拉出来。 –