hbase

    0热度

    1回答

    在Zeppelin中运行hbase作业时,遇到问题“error:keepererrorcode = connectionloss for/hbase”。 Hbase版本 - 1.2,用HBase 1.2编译的Apache Zeppelin 0.8.0。 HBASE在CDH 5.11.0集群 HBase的命令运行成功地从CLI从同一台主机上运行,​​但是从齐柏林UI失败。 Zeppelin主机被配置

    1热度

    1回答

    我想使用来自Java的CsvBulkLoadTool将csv数据文件放到HBase表中。 HBase和Phoenix正在Ubuntu VM上运行。 当我从Windows中运行CsvBulkLoadTool.run()我得到一个异常: java.lang.IllegalArgumentException: Pathname /C:/Users/My_User/.m2/repository/org/a

    0热度

    1回答

    我想触发hbase中所有表的主要压缩。使用hbase客户端API,通过admin.majorCompact(tableName)触发所有时间的主要压缩。 1)如何找出压缩的完成状态,因为hbase client api majorCompact是一个Asynchorous过程。 2)是否必须等到压实过程完成后,查询的HBase的实时过程

    1热度

    1回答

    我们计划实现基于HBase的数据仓库。 有多个实体有父子关系或换句话说我们有嵌套。 public class Parent { private String name; private List<Dependent> dependents; ... } 作为每HBase的,我们可以将这些嵌套实体存储为值[按JSON /阿夫罗]在ColumnFamily中之一。 我们正在查看菲尼克斯

    0热度

    1回答

    我们假设我们有2 CF(CF1,CF2)。 我们假设CF2的TTL为一天,而CF2有2个ColumnQualifiers。 这是否意味着在大型压缩过程中,CF2中比一天更早的任何单元会自动丢弃(只要min-version == 0)? 我很困惑,因为在文档中,他们不断提及行不知道他们是什么意思?

    0热度

    1回答

    看:http://hbase.apache.org/1.2/book.html#rowkey.design 我不明白36.3。尽量减少行和列的大小,为什么?这一章对我来说很难理解。有人能帮我吗? 在此先感谢。

    0热度

    2回答

    我不知道它是否是mapr-db json的常见问题。 我使用一个Streamsets目的地,这是一个Mapr-DB json表来推送包含10列的记录。我确定第一列成为行键。当我去 mapr dbshell find /tmp/my_table 我只看到JSON行密钥而不是其他列 {"_id":"mykey1"} {"_id":"mykey2"} {"_id":"mykey3"} {"_

    0热度

    1回答

    我HBase的架构看起来像如下: { "<trace-id>": { "span-timestamp": { "ts:span:<timestamp>": "" }, "span-name": { "ts:span:<name>": "" }, "span-duration": { "t

    1热度

    1回答

    我在项目中使用Hbase支持的Hive表,但我们选择Hbase支持Hive的原因是执行更新。 除此之外,Hbase支持的Hive表的其他优点还有哪些。因为从Hive查询时它仍然使用MapReduce。 即使我们想要一小组数据,并且由于表很大,需要花费时间来给出结果。 但是,如果我们使用范围进行扫描或者只需在Hbase中获取Hbase shell结果即可。那么除了更新之外,使用Hbase支持的Hiv

    0热度

    1回答

    我正在尝试使用Bigtable上的开始和结束行进行扫描。 扫描之间的元素大约为100K。 我希望能够在HBase中使用setCaching(500)批量处理它们。 在Bigtable中,似乎setCaching被忽略,它会尝试在1个RPC中获取整个结果集。怎样才能实现类似HBase? 我使用Java驱动程序bigtable-hbase-1.1和版本1.0.0-pre3 Bigtable的配置: C