amazon-redshift

    0热度

    1回答

    我正在尝试创建一个SSIS包,以便将数据从Amazon迁移到我的SQL Server中。 有没有办法做到这一点,而无需像ZappySYS或CozyRoc那样安装额外的插件?

    0热度

    2回答

    我正在尝试为用户应用程序构建“最后30天”动态SQL日期过滤器。日期列是unix时代的毫秒时间戳。 上的工具的迭代允许用户选择一个日期范围,现在我只是改变它来选择最后30 的数据存储在红移,不支持from_unixtime。 我有两个挑战: 的数据存储在UTC,需要在EST(UTC -5)的日期过滤。 “选择最近30天”是指在昨日午夜切断,并采取昨天零下29 以前,我的代码是这样的: "datec

    0热度

    2回答

    我们使用JSONB偶尔存储元素。这将作为字符串传递给Redshift,然后使用UDF进行解析。对于审计报告,我想在一列中显示JSON的一部分,而在另一列中显示另一部分。我可以调用一个返回两个值的UDF,而不是每行都调用两个UDF,? 作为一个玩具的例子,考虑一个交易数据库,其中每一行我们存储客户用来支付的方法。有些客户可以支付多笔金额(例如,花费一张礼品卡,然后用现金支付差额),因此我们在该字段中

    0热度

    2回答

    我正在尝试编写一个查询,该数据将允许我在Redshift中每天统计活动订阅的数量。 我有如下表: sub_id | start_date | end_date --------------------------------------- 20001 | 2017-09-01 | NULL 20002 | 2017-08-01 | 2017-08-29 20

    2热度

    2回答

    Google搜索一段时间后,我发现我不能使用“pivot”,因为它在Redshift上不可用,但我认为也许这里有天才也许能帮助我解决这个问题。 我想让整个结果表在左上角的单元格上转动。 现在,我的查询看起来是这样的: SELECT pid, COUNT(DISTINCT CASE WHEN colA = 'true' THEN id ELSE NULL END) as "cA", COUNT(

    0热度

    1回答

    说,我有这样的数据: status | source | communication -------------------|---------------- start | 1 | 1 changed | 2 | 1 changed | 2 | 1 changed | 2 | 1 end | 1 | 1 我知道我可以使用滞后功能分区由一个时间戳列(此处未显示)的通信塔

    1热度

    1回答

    随着我的雇主大幅跳到MongoDB,Redshift和Spark。我正在努力积极主动地接受这些技术。您能否请我介绍任何有助于执行此任务的资源 - “使用Apache Spark创建数据管道以将数据从MongoDB移动到RedShift” 因此,至今我已能够下载开发版的MongoDB并创建一个测试Redshift实例。我如何着手设置其余的过程并让我的脚湿润。 我明白,使用Apache Spark创建

    0热度

    1回答

    当使用PARALLEL ON将数据从Redshift卸载到S3时,select语句的结果将按照Redshift文档中所述分割到一组文件中。这是如何转化为发送到S3端点的请求数的?例如:如果UNLOAD查询(带有PARALLEL ON)在S3存储桶中生成了6个文件,那么这对应于S3上的6个PUT请求吗?或者,S3通过这个UNLOAD查询执行收到的请求数量是否更高? 如果您可以简要说明,我将不胜感激。

    0热度

    1回答

    我在我的AWS账户中拥有一个Redshift群集。我能够连接到它的蟒蛇,当我在本地运行脚本,它运行完美的罚款: import psycopg2 con = psycopg2.connect(dbname='some_dbname', host='hostname.us-east-2.redshift.amazonaws.com', port='port#', user='username', p

    0热度

    1回答

    我在寻找Amazon RedShift服务提供商。尽管我调查了一下,但我只找到提供商Amazon S3 Bucket。如何找到服务提供商和用户指南。