happybase

    3热度

    1回答

    声明 我们有10台机器HBase集群和数十亿行内部。每行由一个列族和〜20列组成。我们需要执行频繁的扫描请求,其中包含起始行前缀和结束行前缀。通常每次扫描都会返回100到10000行。 因为请求可能会经常发生(每分钟最多几个请求),所以性能会被预先设置。由于系统的体系结构,我们希望用Python代替当前的Java代码来实现我们的解决方案。问题出在Python上,我们得到的性能比Java差5至10倍

    0热度

    2回答

    我正在尝试将正则表的列表传递给我的快乐基地扫描调用中的列属性。这是因为,我的彩色名称是通过动态附加我在扫描时无法访问的ID创建的。 这可能吗?

    1热度

    2回答

    def hbasePopulate(self,table="abc",MachineIP="xx.xx.xx.xx"): connection=happybase.Connection(MachineIP,autoconnect=True) tablename=Reptype.lower()+'rep' print "Connecting to table "

    2热度

    2回答

    我正在运行map-reduce作业,现在我想将值输入到hbase中。我将map-reduce作业的值通过stdin进行流式处理,并且有一个python脚本,用于插入(放入)happybase以上的行。 我遇到了各种各样的问题,从python做放。据我所知,最近的问题似乎与库兼容性问题有关。错误日志显示iteritems的问题。 happybase manual引用了排序查询所需的附加python库

    2热度

    2回答

    我一直在使用java和python测试table.put。 在java中,可以将int或float值写入列。使用happybase table.put(line_item_key, {'allinone:quantity': quantity}) 它弹了与 类型错误:类型“诠释”的对象没有LEN() 难道这是真的happybase不支持写出来的字符串以外什么?

    3热度

    2回答

    >>>import happybase >>>cnx=happybase.Connection('localhost') Traceback (most recent call last): File "<stdin>", line 1, in <module> File "/home/seyf/envname/local/lib/python2.7/site-packages/happ

    0热度

    1回答

    我试图筛选从HBase的表(我用HappyBase)行,具体我试图让行,其“身份证”小于1000: for key, data in graph_table.scan(filter="SingleColumnValueFilter('cf', 'id', <, 'binary:1000')"): print key, data 的结果如下的: <http://ieee.rkbexpl

    3热度

    3回答

    我在AWS EMR上使用Hbase 0.94.18。我打算使用HappyBase,因为它看起来非常有前途。不幸的是我在第一次尝试时遇到了这个问题: conn = happybase.Connection(port=9200,compat='0.94') conn.tables() Traceback (most recent call last): File "", line 1, in

    0热度

    1回答

    我想 (由于内存限制)happybase在HBase的采样rowkey所以我搜索和implemet import happybase """~ """" table = connection.table('drivers') a=list(table.scan(filter="RandomRowFilter (chance=0.1f)")) or a=list(table.scan(fi

    0热度

    1回答

    我是Hbase的新手,我希望通过与Thrift一起工作的python API与它交流。我跟着这个tutorial为了我的机器上正确安装,一切似乎都工作得很好,然后我产生用下面的命令.thrift文件: wget http://svn.apache.org/viewvc/hbase/trunk/hbase-thrift/src/main/resources/org/apache/hadoop/hba