我正试图部署新的数据发布者汽车。我看着里边反APIM_LAST_ACCESS_TIME_SCRIPT.xml火花脚本(通过API管理器使用),不明白创建的两个临时工表之间的差异:API_LAST_ACCESS_TIME_SUMMARY_FINAL和APILastAccessSummaryDataWSO2 DAS火花脚本
2
A
回答
2
两个星火临时表代表不同的JDBC表(可能在不同的数据源中),其中一个用作Spark的源,另一个用作目的地。
为了说明这一点比较好,有问题看看简化脚本:
create temporary table APILastAccessSummaryData using CarbonJDBC options (dataSource "WSO2AM_STATS_DB", tableName "API_LAST_ACCESS_TIME_SUMMARY", ...);
CREATE TEMPORARY TABLE API_LAST_ACCESS_TIME_SUMMARY_FINAL USING CarbonAnalytics OPTIONS (tableName "API_LAST_ACCESS_TIME_SUMMARY", ...);
INSERT INTO TABLE APILastAccessSummaryData select ... from API_LAST_ACCESS_TIME_SUMMARY_FINAL;
正如你所看到的,我们首先建立在星火临时表的名称APILastAccessSummaryData
,这代表实际在WSO2AM_STATS_DB
数据源中名称为API_LAST_ACCESS_TIME_SUMMARY
的关系数据库表。请注意,using CarbonJDBC
关键字可用于在Spark中直接映射JDBC表。这些表格(及其行)不被编码,并且可以由用户读取。
其次,我们正在创建另一个名为API_LAST_ACCESS_TIME_SUMMARY_FINAL
的Spark临时表。然而,在这里,我们使用CarbonAnalytics
分析提供程序,这意味着此表不会是一个vanilla JDBC表,而是一个类似于previous question的编码表。
现在,从第三条语句可以看出,我们正在从第二个表API_LAST_ACCESS_TIME_SUMMARY_FINAL
中读取(SELECT)一些字段并将它们插入(第一个),即APILastAccessSummaryData
。这代表Spark总结过程。
有关CarbonAnalytics
和CarbonJDBC
分析提供程序之间差异或Spark如何处理此类表格的更多详细信息,请参阅文档页面Spark Query Language。
相关问题
- 1. WSO2 DAS Spark脚本无法执行
- 2. WSo2 AM + DAS + Docker
- 3. 连接WSO2 ESB和WSO2 DAS的错误
- 4. WSO2 - DAS消费MQTT消息
- 5. 使用MongoDB的WSO2 DAS
- 6. REST服务wso2 DAS或CEP
- 7. WSO2 DAS:删除小工具
- 8. WSO2 DAS:证书不匹配
- 9. WSO2 DAS - 发送使用JSON
- 10. 检索wso2 das API使用信息
- 11. wso2-das无法实现实时分析
- 12. WSO2 DAS - oracleDB 11g的高CPU使用率
- 13. 如何在WSO2上创建报告DAS
- 14. WSO2 DAS性能缓慢恶化
- 15. wso2 das清除配置 - 不工作?
- 16. wso2 DAS仪表板的架构
- 17. WSO2 DAS 3.0.1代理服务器配置
- 18. 火花2到火花1.6
- 19. WSO2 ML之间设置整合与WSO2 DAS
- 20. WSO2 DAS是WSO2 BAM的新名称或后续产品吗?
- 21. 本地火花簇的sparkcontext
- 22. 火花
- 23. 要火花还是不火花?
- 24. 火花:火花CSV时间过长
- 25. H20与火花水的火花差异
- 26. 如何输入stdin数据作为输入火花脚本
- 27. 将Python脚本工作在火花使用pyspark
- 28. 火花提交:通过运行变量来引发脚本
- 29. 火花 - 与阶
- 30. 火花SQL
非常感谢Gokul对此解释:) – Zizou