有一个MongoDB有我想研究的有趣数据。不幸的是,由于尺寸问题,每48小时一次,数据库就会被清除“旧”记录。拦截或过滤来自MongoDB的oplog事务
我创建一个副本与具有优先级0和表决0,以便不与主数据库性能干扰次级数据库系统的设置。这可以很好地工作,因为我可以查询辅助数据并获取我的数据。但是,在很多情况下,我的系统无法及时处理所有记录,并且如果我在48小时内未找到它们,将会丢失一些旧记录。
有没有一种方法,我可以高速缓存的另一个系统,然后我就可以处理我的休闲,可能过滤掉删除,直到我准备在OPLOG?
我考虑过slavedelay参数,但这会影响所有交易。我还将Tungsten Replicate作为解决方案进行了研究,以便实际上可以缓存oplog,但是,它们不支持MongoDB作为数据源。
是纯文本格式存储在次级,这样我可以阅读和提取我从中得到想要的OPLOG。
这个任何指针将是有益的,不幸的是我无法找到MongoDB的网站上OPLOG多文档。
感谢Markus,您提供的信息很有趣。在我的情况下,我不拥有这些数据,我需要轻轻一点。我会建议他们使用到期方式作为替代方案。至于我的系统,我可以非常快速地获取他们的数据,但它正在开发中,可能会有很多中断,因此我将在后面运行并且不想错过任何数据。 – 2014-10-06 18:42:32