我必须为在线博客和不同的词操作功能编写一个C语法分析器。如何使用C下载网页内容?
我知道如何在C语言中解析/标记stings,但是如何执行将页面内容下载到本地/tmp
目录作为HTML文件,这样我就可以将信息(博客)保存为使用I/Ø?
或者,只要抓住直接从我查看的页面的文本块...
我的系统可以是任何的Ubuntu或Windows 7,所以我不认为wget
将削减它。请帮忙。
我必须为在线博客和不同的词操作功能编写一个C语法分析器。如何使用C下载网页内容?
我知道如何在C语言中解析/标记stings,但是如何执行将页面内容下载到本地/tmp
目录作为HTML文件,这样我就可以将信息(博客)保存为使用I/Ø?
或者,只要抓住直接从我查看的页面的文本块...
我的系统可以是任何的Ubuntu或Windows 7,所以我不认为wget
将削减它。请帮忙。
看看libcurl:
libcurl的是一个自由和易于使用的客户端URL移库,支持[...] HTTP,HTTPS,[...]
的libcurl是高度可移植的,它建立并同样工作在许多平台上,包括[...] Linux中,[...]的Windows,[...]
听起来像这就是我寻找,在阅读我自己的规格后,它听起来像在建立一个rss阅读器应用程序。如果我采用这个方向,我需要注意C/libcurl图库中的任何缺陷 – JB87 2010-09-13 08:53:35
@ JB87:我不确定libcurl与图形库有什么关系?如果你正在使用gtk +或者类似的东西进行跨平台的图形用户界面,那么使用他们的适配器实现可能会更容易。 – 2010-09-13 08:59:13
也有libsoup。
MSDN:URLDownloadToFile
您可以获取windows的wget二进制文件。但是正如Georg所说,libcurl可能就是这样。 – ngoozeff 2010-09-10 08:44:40