我需要知道不同XML工具(解析器,验证器,XPath表达式评估器等)的性能如何受输入文档大小和复杂度的影响。那里有资源记录CPU时间和内存使用情况如何受到影响......那么,是什么?文档大小以字节为单位节点数量?关系是线性的,多项式的还是更坏的?XML解析器/验证器的算法复杂性
更新
在IEEE计算机杂志的一篇文章,第41卷NR 9,2008年9月,笔者调查四大流行XML解析模型(DOM,SAX,StAX的和VTD)。他们运行一些非常基本的性能测试,这些测试表明,当输入文件的大小从1-15 KB增加到1-15 MB或大约1000倍时,DOM解析器的吞吐量将减半。其他模型的吞吐量不会受到显着影响。
不幸的是,他们没有执行更详细的研究,例如吞吐量/内存使用量作为节点数量/大小的函数。
这篇文章是here.
更新
我无法找到这个问题的任何正规治疗。对于它的价值,我做了一些实验,测量XML文档中节点的数量,作为文档大小的函数。我正在研究仓库管理系统,XML文档是典型的仓库文档,例如高级发货通知等。
下图显示了以字节为单位的大小和节点数量(应与DOM模型下文档的内存占用量成正比)之间的关系。不同的颜色对应于不同种类的文档。规模是日志/日志。黑线是最适合蓝点的线。有趣的是,对于各种文档,字节大小和节点大小之间的关系是线性关系,但比例系数可能会有很大的不同。
uhhh图表!总是很好。好的更新! – svrist 2009-01-27 18:57:45