ignite

    1热度

    2回答

    当我们使用IgniteQueue内星火图如下 sparkDataFrame.map(row => { igniteQueue.put(row) }) 我们得到SparkException:任务不序列化的例外。这是因为IgniteQueue不是可序列化的。 有没有办法使IgniteQueue可序列化? 在此先感谢!

    0热度

    1回答

    我正在开发基于Spring的Web应用程序。我在Maven依赖项中添加了Apache ignite。 这是非常简单的应用程序,它只有2个休息api。 一个是通过键查询哪个返回对象。另一个是放数据。 但我有一个问题:当我开发额外的实现时,我不知道如何部署此应用程序。 应用程序应始终可用。但是我将它部署到一个节点,那么该节点可能不可用。 分布式内存应用程序部署有很好的方法吗?

    0热度

    1回答

    我们需要获取Ignite Queue的内容,该Ignite Queue将群集中的大型数据集保存为Spark数据框。 目前我们做下图。 var array: Array[Row] = Array() array = igniteQueue.toArray(array) 但这带来的igniteQueue到单个边缘节点的所有分发的内容作为使溢出异常的阵列。 有没有办法将spark数据作为Spark

    0热度

    1回答

    运行与点燃CacheEvents程序相关的github示例时,未获取任何输出(示例链接:https://github.com/apache/ignite/blob/master/examples/src/main/java/org/apache/ignite/examples/datagrid/CacheEventsExample.java)。任何人都可以帮助我吗? 例子: package com

    1热度

    1回答

    我们如何每隔n秒清空一次缓存(以便我们可以对第n个第二个窗口 - 批量窗口查询)的数据运行查询?我只能在点燃代码中找到基于FIFO和LRU的驱逐策略,其中驱逐策略基于添加或修改的缓存条目。 我明白,我们可以使用CreatedExpiryPolicy cfg.setExpiryPolicyFactory(FactoryBuilder.factoryOf(new CreatedExpiryPolicy

    1热度

    1回答

    我打算在将其放入缓存之前使用IgniteDataStreamer和StreamVisitor API过滤某些类型的数据。 是否有任何其他方式或API用于在将数据放入点火缓存之前进行过滤。 我知道这样的事实,一旦数据被放入缓存,然后正常的SQL过滤方式是可能的。

    1热度

    1回答

    根据我们当前的代码实现,我们需要将System.Data.DataTable存储在缓存中。它在使用HttpRuntime.Cache时可以正常工作,但不能在Apache Ignite中使用。 以下是代码片段。 IIgnite ignite = Ignition.Start(); ICache<string, object> cache = ignite.GetOrCreateCache<stri

    1热度

    1回答

    从升级后出现错误“冲突类型ID [type1 ='行',type2 ='行',typeId = 113114]” Apache Ignite 2.0至2.1(.Net)。升级后我没有更改任何代码,所以想知道如何创建和使用动态二进制对象的期望改变了?我看着AddType方法。也许它应该返回而不是抛出,也许该方法的名称是误导性的,它应该是GetOrAddType? 将AddType方法: https:

    0热度

    1回答

    我从docs了解到,使用分区缓存实现了复制缓存,其中每个密钥都有一个主副本,并且还在群集中的所有其他节点上进行备份&当查询数据时,将从主备份&用于提供查询的节点。 但我看到默认缓存写同步模式是PRIMARY_SYNC,其中客户端不会等待备份更新。这是否意味着我必须明确地将其设置为FULL_SYNC以用于复制高速缓存,因为响应依赖于对主要&备份的查找?

    2热度

    1回答

    尝试在Apache Ignite v2.1中使用新的Ignite Persistent Store时出现错误。我创建了一个新的空白.Net控制台应用程序,并添加了Apache Ignite v2.1 nuget包。 当调用ignite.SetActive(true)时引发以下两个异常; 我尝试了一堆不同的选择,但是这似乎是我能够最大限度地发挥它的作用。它将数据写入Work文件夹,但它永远不会超过S