urllib3

    6热度

    1回答

    我试图用Requests来创建一个强大的Twitter用户流消费方式。到目前为止,我已经产生了以下基本工作示例: """ Example of connecting to the Twitter user stream using Requests. """ import sys import json import requests from oauth_hook impor

    1热度

    1回答

    我刚开始使用urllib3,并且我正在直接遇到问题。根据他们的手册,我开始用简单的例子: Python 2.7.1+ (r271:86832, Apr 11 2011, 18:13:53) [GCC 4.5.2] on linux2 Type "help", "copyright", "credits" or "license" for more information. >>> impor

    23热度

    3回答

    我试图在Google App Engine上使用真棒请求库。我找到了一个urllib3的补丁,它依赖于与App Engine兼容的请求。 https://github.com/shazow/urllib3/issues/61 我可以成功 import requests 但随后 response = requests.get('someurl') 失败,出现以下回溯。这是怎么回事? Trac

    1热度

    1回答

    我想与使用应用程序引擎的第三方建立持久连接。具体而言,我挂钩了实时出价环境,我需要在100毫秒内响应,因此持续连接大大加速了此过程。 为了做到这一点,我试图使用urllib3(如果有更好的方法,请告诉我) 当我的请求处理程序的post方法被调用时,我想写回到调用url保持连接打开。我知道如何使用urllib3打开一个请求,但是如何持久化在处理程序的post方法被调用时创建的连接。 此刻我想: ht

    2热度

    2回答

    我正在尝试使用urllib3连接到网页。代码如下所示。 import urllib3 http=urllib3.PoolManager() fields={'username':'abc','password':'xyz') r=http.request('GET',url,fields) 如果我们假设URL是一些网页,这就需要使用用户名和密码,现在用的是正确的代码来验证我要认证? 我已

    2热度

    1回答

    我还没有找到任何利用Python来通过CAS的人的例子。希望也许Kenneth Reitz可以告诉我'请求'可以如何简单... 基本上,我无法通过CAS登录...从不验证我的Python尝试。 (请注意,我定义了两个网址.... url1是主网页,url2是CAS网站的重定向链接...我已经知道重定向链接,因此使它变得简单)。 我的理解是我所要做的就是捕获CAS发送给我的JsessionId作为c

    0热度

    1回答

    Possible Duplicate: Python urllib3 and how to handle cookie support? 我试图从网页与已发行的cookie中检索源代码和源代码写入到一个txt文件。如果我删除cookies=cookie部分,我可以检索源代码,但我需要以某种方式发送带有http请求的cookie。 output = open('Filler.txt', 'w+')

    0热度

    1回答

    我写了并重写了我的小python应用程序,使我的当前python技能不足。我从一个单线程应用程序开始,使用Beautiful Soup作为解析器,将其更改为lxml。使脚本多线程,我发现扭曲,但不能改变这个小片段扭曲。我只是在这里发布这个,所以也许你们可以指点我更好的方向,让这可能更快一点。要获取150k页,我需要在这一点上1小时。 Iam对这个原因感到满意,当我第一次尝试写它时,我慢了3倍。 #

    0热度

    1回答

    这是我的代码: import urllib3 url='http://www.google.com/' http_pool = urllib3.connection_from_url(url) content = http_pool.get_url('/') print (content.info()) print ('----------------------------')

    0热度

    1回答

    我使用urllib3通过HTTP数千次(特别是超过40,000)一个接一个地查询在线API。 我注意到,在开始时,来自API的HTTP GET非常快(< 500ms)。 随着越来越多的HTTP请求被制作,响应时间减慢到几秒钟。 我的代码如下所示: http = urllib3.PoolManager() req = http.request(u'GET', URL) doc = xml.dom