cassandra-2.0

    1热度

    1回答

    我使用三台机器各自具有32 GB的RAM和4芯(在亚马逊AWS) 我使用卡桑德拉的所有默认配置的集群上卡桑德拉2.1.12。 我使用它为我的网站事件分析具有约每天1 GB的数据有3 我的数据的replcation因子(时间序列数据)已发展到约85 GB每台机器现在是给上读取延迟大约4.5 s (4000 ms) 我的行很少更新所以,我没有使用LevelOrder Compaction。 而我写与编

    0热度

    1回答

    我是cassandra的新手。 我有一个包含两个节点的集群。我已将复制因子设置为1.现在,如果一个节点出现故障,我可以插入数据,而不会出现Consistency = ONE错误。插入后,如果我尝试TAD一样,那么它给了我一个错误 Unavailable: code=1000 [Unavailable exception] message="Cannot achieve consistency le

    2热度

    1回答

    我是卡桑德拉的新手,我来自Postgres。我想知道是否有方法可以从2个不同的表或列族中获取数据,然后返回结果。我有这个疑问 select p.fullname,p.picture s.post, s.id, s.comments, s.state, s.city FROM profiles as p INNER JOIN Chats as s ON(p.id==s.profile_id) WHE

    0热度

    1回答

    你好,我对Cassandra很新,几天前已经开始学习它。如果不存在函数,我有一个问题。 如果不存在只有1列工作?。我担心的是,如果我有一个包含3个属性的列族,如 ID(UUID:主键),电子邮件(文本)和名称(文本)。并保存这个数据库 1, "[email protected]" , "John" 如果有人试图注册,并提出“[email protected]”和“约翰”作为名字将在通和接受呢

    0热度

    2回答

    我正在使用[cqlsh 5.0.1 | Cassandra 2.2.1 | CQL规范3.3.0 |本机协议v4]版本。我有复制因子2节点卡桑德拉簇为2 $ nodetool status test_keyspace Datacenter: datacenter1 ======================= Status=Up/Down |/ State=Normal/Leaving/

    0热度

    1回答

    我有40GB的大小,我试图使用以下命令来分割的SSTable: bin/sstablesplit --no-snapshot -s 10 keyspace-columnfamily-ka-2466-Data.db 但它删除了40Gb和多恩斯当前文件甚至不会错误地分裂它。可能的原因是什么或者我在这里做了些什么错误。

    0热度

    1回答

    数据不存在我在我的服务器应用程序两种方法: 布尔isMessageExist(MESSAGEID),它执行以下查询: SELECT MESSAGEID从消息哪里messageId = 1; insertMessage(INT MESSAGEID,字符串数据),其执行以下查询: INSERT INTO消息(MESSAGEID,数据)值(1,XYZ); 在我的代码中,我正在做下面的要求,以满足“只有消

    1热度

    1回答

    我们可以将多个文件导入/复制到acassandra表中,这些文件在表和文件中具有相同的列名称? COPY table1(timestamp,temp,total_load,designl)FROM'file1','file2'WITH HEADER ='true'; 我试过使用上面的语法:但它的说法 错误的COPY命令。 我的意思是说,假设我们有100列的分隔符文件具有相同的列,并且我想使用单个c

    0热度

    1回答

    我有一个包含40GB空间的列族。我截断了列家族。因此,在GC_GRACE_SECONDS之后,Cassandra创建了占用相同空间量的截断数据的快照。有没有什么办法可以摆脱快照所利用的空间而不禁止创建快照。我的意思是没有任何超时参数,之后它将删除消耗不必要空间的快照。

    0热度

    1回答

    我的cassandra CF具有日期和id作为分区键。 查询时我只知道日期,所以我遍历了id的范围。 我的问题围绕着连接器如何执行下面的代码。 SparkDriver代码看起来像 - SparkConf conf = new SparkConf().setAppName("DemoApp") .conf.setMaster("local[*]") .set("spark.cassandra.c