amazon-redshift

    -1热度

    3回答

    我有超过8个模式和200多个表,并且数据由不同架构中的CSV文件加载。 我想知道如何查找所有200个表的平均时间以将数据从S3加载到Redshift的SQL脚本。

    1热度

    1回答

    所以我有这个疑问出外 query = MyModel.objects.filter(some_filter).filter(eventTime__date__gte=start_date).filter(eventTime__date__lte=end_date).... 我连接到红移表有EVENTTIME为UTC。它提供我在本地SQL查询像 select eventtime AT TIME

    0热度

    1回答

    我在红移执行以下操作在开始之后没有创建新的事务,并且命令在COPY命令的事务下继续运行。这有意义吗? 我使用JDBC驱动程序1.2.8。在1.1.7中看到了不同的行为。 这是在驱动程序的任何机会改变? (没找到,虽然任何连接) 文件 - https://s3.amazonaws.com/redshift-downloads/drivers/Amazon+Redshift+JDBC+Release+

    0热度

    1回答

    如何限制Redshift用户/组在单个群集环境中的多个数据库中的单个数据库。 例如,用户test1_user是在test1_group1在称为test1_DB数据库中创建和后,我们创建了另一个数据库test2_DB,当我们在查询test2_DB的pg_group或pg_useř我们可以看到test1_user和test1_group。

    1热度

    2回答

    我有一个管道分隔的文本文件,它是360GB压缩文件(gzip)。 它有超过1,620列。我不能准确显示字段名,但这里是它基本上是什么: primary_key|property1_name|property1_value|property800_name|property800_value 12345|is_male|1|is_college_educated|1 严重的是,有超过这些属性名

    2热度

    2回答

    我们有一个查询,其中查询的“IN”子句中提供了参数值列表。一段时间后,由于“IN”子句中的数据大小变得非常大,因此查询结果超过了REDSHIFT中查询的16MB限制,因此该查询无法执行。因此,我们尝试分批处理数据,以限制数据并且不违反16 MB的限制。 我的问题是在为查询的“IN”子句提供如此大的数据时需要记住哪些因素/缺陷,或者是否有其他方法可以处理“IN”子句中的大数据?

    1热度

    1回答

    我正在使用spark-redshift和查询使用pyspark进行处理的redshift数据。 查询工作正常,如果我在使用工作台等红移运行。但spark-redshift卸载数据到s3,然后检索它,它会引发以下错误,当我运行它。什么是这里的问题,我怎么能解决这个 UNLOAD ('SELECT “x”,”y" FROM (select x,y from table_name where ((lo

    0热度

    3回答

    在我的表中的数据是这样的: date, app, country, sales 2017-01-01,XYZ,US,10000 2017-01-01,XYZ,GB,2000 2017-01-02,XYZ,US,30000 2017-01-02,XYZ,GB,1000 我需要找到,对于每个应用程序每天的基础上,美国销售的国标销售的比例,因此,最好结果是这样的: date, app, ra

    0热度

    2回答

    tl; dr:我想在Redshift中生成一个日期表,以便更容易地生成报告。不需要大型表已经在redshift,需要上传一个csv文件。 长版本: 我正在编写一份报告,我必须平均每周创建新项目。日期范围可能会持续数月或更长时间,所以可能会有5个星期一,但只有4个星期日,这可能会使数学有点棘手。另外,我无法保证每天有单个项目的实例,特别是一旦用户开始分割数据。其中,这正在绊倒BI工具。 解决此问题的

    1热度

    1回答

    我想安装此网页上提到的功能... https://en.wikibooks.org/wiki/Algorithm_Implementation/Checksums/Verhoeff_Algorithm#plpgsql 它正在红移之外的所有平台。我得到一个错误... Error in query: ERROR: Create Function is not supported for languag