-2
我们试图一次性插入近10万条记录!但是,该脚本将所有0.1英里的记录插入到MySql中,而类似的脚本在Big Query中插入大约27K条记录后过早终止!对BigQuery中的记录插入次数有任何限制?
另外我们没有发现任何错误在从Big Query API脚本终止。请帮助我们知道原因,如果它BQ已设置任何限制插入或其他!
我们试图一次性插入近10万条记录!但是,该脚本将所有0.1英里的记录插入到MySql中,而类似的脚本在Big Query中插入大约27K条记录后过早终止!对BigQuery中的记录插入次数有任何限制?
另外我们没有发现任何错误在从Big Query API脚本终止。请帮助我们知道原因,如果它BQ已设置任何限制插入或其他!
如果您并行地制作流式插入,效果会更好。对于大数据使用加载文件的作业。确保你正确处理错误,因为从一批行可能会失败,有些可以通过。处理错误时您需要处理此问题。
以下限制适用于将数据流式传输到BigQuery。
你可以在这里找到你需要的所有信息 - https://cloud.google.com/bigquery/quota-policy#streaminginserts –