vora

    0热度

    1回答

    我已经安装了单节点集群上沃拉1.4与1个核心和ram..my沃拉的32 GB得到了成功安装,但我的服务无法启动...... 这是我* * ** ....... 的/ opt /沃拉/ lib目录/沃拉-目录/斌/ v2catalog_server:/usr/lib64/libstdc++.so.6:版本GLIBCXX_3.4.18' not found (required by /opt/vora

    0热度

    2回答

    我已经从SAP BW InfoProvider写入HDFS的数据。现在我正在尝试将这些数据用于Vora 1.3中的报告。 我想在沃拉工具SQL控制台运行语句,首先: CREATE TABLE F002_5_F (calyear string, calmonth string, /bic/zfiscweek string, doc_currcy string,

    0热度

    1回答

    我在Vora 1.3中创建了Vora表,并试图从我从SAP BW归档过程(Hadoop上的NLS)获得的ORC文件中向该表附加数据。我有20个文件,总共包含约50 Mio记录。 当我试图使用“文件”在追加语句设置为“/路径/ *”,经过约长1小时沃拉返回此错误消息: com.sap.spark.vora.client.VoraClientException: Could not load tabl

    0热度

    1回答

    我是Vora的新手。我正在尝试为Vora开发创建一个Maven项目。 有人可以指导我使用正确的pom.xml和创建Vora项目所需的依赖项。我阅读了spark-sap-datasources-的文档。 -assembly.jar是必需的,但我无法找到这个jar。 我想在下面的SAP帮助URL中做类似的事情。 https://help.sap.com/viewer/0991e2320f5940d98

    0热度

    2回答

    我在HANA Express 2 SP 01中使用VM。在小型测试群集上,我安装了Hortonworks Data Platform 2.6和Spark 1.6 .3,并且还添加了HANA Vora 1.4和Spark Controller 2.1。 我遵循SAP Vora安装和管理指南:https://help.sap.com/http.svc/rc/f09ec811fe634f588647c3

    1热度

    1回答

    Vora 1.3中是否有日志轮转?在运行Vora 1.3的两个月后,我意识到我的节点几乎是磁盘空间,因为/ var/log/vora-manager就像46 Gb。所以我必须停止它,杀死日志并重新启动。 但也许我错过了一些设置? 编辑1:日志文件应该存储在/ var/log/vora/vora-manager中,而不是我上面提到的文件夹,但我仍然在那里看到一个巨大的日志文件。文件/ var/log

    0热度

    1回答

    我有一个带有单个varchar字段的SAP HANA Vora虚拟表。 我尝试从SAP HANA工作室执行此下面的查询到该沃拉虚拟表: INSERT INTO "BPINST"."VORA_TEST_VORA_VARCHAR" values ('OPT') 但出现以下错误: Could not execute 'INSERT INTO "BPINST"."VORA_TEST_VORA_VARC

    0热度

    2回答

    我一直试图通过Spark controller 2.0将Vora 1.4连接到HANA 1.0 SPS12。可以将远程源添加到HANA工作室,但Vora表不可见。尝试刷新远程源时,Spark控制器错误日志中会出现类未找到错误。以下是错误消息: * 17/05/23 10点11分46秒错误HanaSQLContext:无法设置Exended商店 抛出java.lang.ClassNotFoundEx

    0热度

    1回答

    我在3节点MapR群集上安装了SAP HANA Vora。虽然试图通过沃拉管理器UI带来了沃拉服务,我得到以下错误: Error occurred while starting all services: vora-dlog refused to start. Cannot continue Start All Jobs. Error: There are no health checks reg

    0热度

    2回答

    我有一个定义了一个有单个关系表数据源的Vora View。我在结果集中包含了两列,其中一个列出了一个聚合函数。这个数据预览按预期工作。 逻辑上,我想添加一个'where'子句来只在聚合值满足条件时过滤数据。为了用一个合计值来做到这一点,我的理解是我需要定义一个'HAVING'子句。所以,这是我做的,但它会导致以下异常: org.apache.spark.SparkException: Job ab