urlopen

    14热度

    4回答

    解析HTTP响应我想在THIS URL操作的信息。我可以成功打开它并阅读它的内容。但是我真正想要做的是抛弃所有我不想要的东西,并操纵我想要保留的东西。 有没有办法将字符串转换为字典,以便我可以迭代它?或者我只需要解析它(str类型)? from urllib.request import urlopen url = 'http://www.quandl.com/api/v1/datasets/

    1热度

    1回答

    我正在用Python学习网络编程,我正在研究的一个练习如下:我正在编写一个Python程序来查询网站“orbitz.com”并返回最低机票价格。出发和到达的城市和日期用于构建URL。 我做这个用的urlopen命令,如下所示: (SEARCH_STR包含URL) from lxml.html import parse from urllib2 import urlopen parsed =

    0热度

    3回答

    我有一个python脚本来获取网页并对其进行镜像。它适用于一个特定的页面,但我不能让它工作多个。我以为我可以把多个网址变成一个列表,然后哺养的功能,但我得到这个错误: Traceback (most recent call last): File "autowget.py", line 46, in <module> getUrl() File "autowget.p

    0热度

    2回答

    我有一个链接到JavaScript文件的URL,例如http://something.com/../x.js。我需要提取一个变量从x.js 是否有可能使用python做到这一点? 目前我使用urllib2.urlopen()但是当我使用.read()我得到这个可爱的烂摊子: U�(��%y�d�<�!���P��&Y��iX���O�������<Xy�CH{]^7e� �K�\�͌h��,U(9

    0热度

    1回答

    逗人我想获得源页面而不是在互联网,而在本地系统 example : url=urllib.request.urlopen ('c://1.html') >>> import urllib.request >>> url=urllib.request.urlopen ('http://google.com') >>> page =url.read() >>> page=page.dec

    -5热度

    4回答

    我有行之有效以下Python代码: try: with urlopen("http://my.domain.com/get.php?id=" + id) as response: print("Has content" if response.read(1) else "Empty - no content") except: print("URL Error h

    1热度

    1回答

    我有这样的代码: from urllib.request import urlopen from bs4 import BeautifulSoup page = urlopen("http://www.doctoralia.com") soup = BeautifulSoup(page) myfile = open('data.txt','w') myfile.write(soup.p

    0热度

    1回答

    我正在使用Python 2.7。 我想打开一个网站的URL并从中提取信息。我正在寻找的信息在美国版本的网站(http://www.thewebsite.com)。由于我在加拿大,因此我会自动重定向到加拿大版本的网站(http://ca.thewebsite.com)。我正在寻找解决方案来尝试避免这种情况。 如果我带任何浏览器(IE,Firefox,Chrome,...)并导航到http://www

    1热度

    1回答

    我期待在Python 2.7中使用urlopen时获得更多关于IOError: [Errno socket error] [Errno 10060]的信息。我正在使用我的个人35MB/s Internet连接(无代理)。 我已经从不同的网站使用Python脚本打开多个网页,并随机获得此错误消息不时:试图打开从不同的网站页面后,出现 webpage = urlopen('http://www.the

    1热度

    1回答

    我有以下的/ etc/hosts中 127.0.0.1 my-server-name 然后我运行此代码: import urllib2 f = urllib2.urlopen('http://my-server-name') print f.read() 如果我连接到通过wifi实现(或者如果以太网接口关闭),请求需要0.2s。如果我使用有线连接,则需要长达10秒。 我一直在阅读,它