我也有一个very large table in SQL Server(2008 R2开发版),它有一些性能问题。哪个数据库(DBMS)可以最好地处理大型表?
我想知道如果另一个DBMS会更好地处理大型表格。我主要只考虑以下系统:SQL Server 2008,MySQL和PostgreSQL 9.0。
或者,正如上面提到的问题所回避的,表格大小和性能主要是指标和缓存因素?
此外,更大规范化会提高性能还是阻碍呢?
编辑:
下面的评论之一,我的含义是模糊的。我有超过2000万行(20年的股票数据& 2年的期权数据),我试图找出如何提高一个数量级的性能。我只关心阅读/计算性能;我不在乎写作表现。唯一的写入是在数据刷新期间,而这些是BulkCopy。
我已经有一些索引,但希望我做错了什么,因为我需要加快很多事情。我也需要开始查看我的查询。
提供的评论和答案已经帮助我了解如何开始分析我的数据库。我是一名程序员,而不是DBA(因此Marco的书推荐是完美的)。我没有那么多的数据库经验,而且我以前从未对数据库进行过配置。我会尝试这些建议并在必要时报告。谢谢!
没有“最好的”。简单地说“足够[足够]满足功能需求和资源限制”。此外,这个问题是如此令人不安的模糊 - 建立一些测试用例,检查查询计划,未使用/超额索引,集群,使用滑动窗口的好处(如果有的话)等。 – 2010-07-13 21:14:49
做什么时会出现性能问题?读?写作?此外,也许定义大。许多行?很多专栏?都?你使用分区吗?你为什么不以自己的表格结构,数据和查询为基准来衡量自己? – 2010-07-13 21:16:47
一些更多的资源:http://stackoverflow.com/questions/761204/what-resources-exist-for-database-performance-tuning – 2010-07-13 21:51:26