web-scraping

    0热度

    1回答

    我需要刮这个HTML页面... https://www.sanita.puglia.it/monitorpo/aslfg/monitorps-web/monitorps/monitorPSperASL.do?codNazionale=160115 ....使用PHP和XPath来获取值在名为“PO G.TATARELLA-CERIGNOLA”的表格下的绿色框中。 (注:你可以在页面中看到不同的价值

    1热度

    1回答

    我是Jsoup解析的新手,我想要获得本页面上所有公司的列表: 现在,一种方法是使用div标签检查页面与我需要的相关。 然而,当我打电话的方法: Document doc = Jsoup.connect("https://angel.co/companies?company_types[]=Startup").get(); System.out.println(doc.html()); 首先,

    0热度

    1回答

    林在学校的一个项目工作是我显示的当前价格比特币,ETH也许再和IM网络刮https://cryptowat.ch/但我不能找到用于存储实时价格标签。当我解析div标签返回的价格,但我不是能够把它隔离开,所以我可以在Python <div class="rankings-col__header__segment"><h2>BTC</h2><weak>usd </weak>10857.00</div>

    0热度

    1回答

    我对如何从这个网页刮数据的问题: http://tvc4.forexpros.com/init.php?family_prefix=tvc4&carrier=64694b96ed4909e815f1d10605ae4e83&time=1513525898&domain_ID=70&lang_ID=70&timezone_ID=31&pair_ID=171&interval=86400&refres

    2热度

    1回答

    我在python上使用了splinter模块。我需要检查一个元素是否可见或不在页面上,看似唯一的告诉方法是style="display: none;",我无法找到一种方法来检测。 如何检查?

    0热度

    2回答

    我试图使用Selenium和Python 3从网站下载文件。这需要在覆盖窗口上按下确认按钮。叠加窗口不在iFrame中 - 只是在出现叠加时动态添加HTML - 但Selenium无法通过xPath找到该按钮,返回NoSuchElementException。我是否错过任何会导致Selenium无法看到该元素出现在页面源中的内容?据我所知,Selenium应该能够找到没有问题的按钮。 #Initi

    10热度

    2回答

    我已经写在VBA刮刀解析从洪流站点的某些影片信息退出浏览器。我用IE和queryselector完成任务。当我执行我的代码时,它会解析一切,并弹出一个错误。看起来这个错误似乎是无处不在,而不是继续。如果我取消错误框,那么我可以看到结果。我已经上传了两张图片,向您展示我遇到的错误。我如何成功执行代码而不会出现任何错误?提前致谢。 下面是完整的代码: Sub Torrent_Data() D

    1热度

    2回答

    使用我很新的Scrapy,想尝试以下操作: 从网页中提取一些值,将其存储在一个变量,在我的主要脚本中使用它。 所以我也跟着他们的教程,并改变了代码为我的目的: import scrapy from scrapy.crawler import CrawlerProcess class QuotesSpider(scrapy.Spider): name = "quotes"

    0热度

    1回答

    我正在按照教程使用scrapy库从网站上刮掉多个页面。本教程使用yield语句通过css选择器和xpath选择器从页面的html和css结构中获取信息。我决定使用if语句来检查搜索查询是否找到结果,并使用else语句来输出当搜索查询没有遇到结果时要执行的操作。当代码执行提取公司名称的else语句,以及位置和销售字段时,我想要一个传达'未找到'的自定义输出字符串时出现问题。 当我运行该脚本,我得到以

    0热度

    1回答

    寻求帮助,以循环访问网站上的所有选项卡以捕获所有相关信息。 在以下站点中,有几个标签分别标记为5x5,5x10x5,10x10等。我不确定如何构造它,以便它会通过选项卡并在我的脚本中编写循环。感谢您的帮助。 下面是python脚本; from urllib.request import urlopen as uReq from bs4 import BeautifulSoup as soup