好的,我需要使用Python下载一些网页,并对我的选项进行了快速调查。哪个在Python中最好:urllib2,PycURL还是机械化?
包括在Python:
urllib - 在我看来,我应该使用的urllib2。 urllib没有cookie支持,仅支持HTTP/FTP /本地文件(不支持SSL)
urllib2 - 完整的HTTP/FTP客户端,支持cookies等)
全功能:
mechanize - 可以使用/保存火狐/ IE的cookies,需要像跟随第二环节,积极维护(0.2.5于2011年3月发布)的行动
PycURL - 支持curl所做的一切(FTP,FTPS,HTTP,HTTPS,GOPHER,TELNET,DICT,FILE和L DAP),坏消息是:没有更新自2008年9月9日(7.19.0)
新的可能性:
urllib3 - 支持连接重新使用/池和文件发布
已过时(亦称使用的urllib/urllib2的替代):
httplib - HTTP/HTTPS(不使用FTP)
httplib2 - HTTP/HTTPS(不使用FTP)
令我惊讶的是,urllib的/ urllib2的第一件事/ PycURL /机械化都是相当成熟的解决方案,运行良好。机械化和PycURL附带许多Linux发行版(例如Fedora 13)和BSD,所以安装通常不是问题(所以这很好)。
urllib2看起来不错,但我想知道为什么PycURL和机械化两者似乎非常受欢迎,有没有我缺少的东西(即如果我使用urllib2我会在某个角落画一个角落?)。我真的很喜欢这些东西的利弊反馈,所以我可以为自己做出最好的选择。
编辑:在urllib2的
“最好”是什么意思?最好的是什么?最快的?最大?最好使用Cookie?你需要做什么? – 2010-03-05 11:03:40
httplib不是“已弃用”。它是urllib2构建于其上的较低级别的模块。你可以直接使用它,但通过urllib2 – 2010-03-05 16:48:11
更容易。 urllib3是httplib之上的一个图层。此外,httplib2不被弃用 - 实际上它比urllib2更新,并修复了连接重用问题(与urllib3相同)。 – Yang 2011-04-21 01:03:49