我已经在python中编写脚本并结合selenium来解析网页中的名称。该网站的数据不支持JavaScript。但是,下一页链接在JavaScript内。由于该网页的下一页链接对于requests
库而言没有用处,因此我使用硒来解析来自该网站的数据,并遍历了25个页面。我在这里面临的唯一问题是,尽管我的刮板能够通过点击25页到达最后一页,但它仅从第一页获取数据。而且,即使点击了最后一页,刮刀仍然继续运行。下一页链接看起来完全像javascript:nextPage();
。顺便说一句,即使我点击下一页按钮,该网站的网址永远不会改变。我怎样才能从25页获得所有的名字?我在刮刀中使用的CSS选择器完美无瑕。提前致谢。刮板无法从下一页获取名称
这里是我写的东西:
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
driver = webdriver.Chrome()
wait = WebDriverWait(driver, 10)
driver.get("https://www.hsi.com.hk/HSI-Net/HSI-Net?cmd=tab&pageId=en.indexes.hscis.hsci.constituents&expire=false&lang=en&tabs.current=en.indexes.hscis.hsci.overview_des%5Een.indexes.hscis.hsci.constituents&retry=false")
while True:
for name in wait.until(EC.presence_of_all_elements_located((By.CSS_SELECTOR, "table.greygeneraltxt td.greygeneraltxt,td.lightbluebg"))):
print(name.text)
try:
n_link = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, "a[href*='nextPage']")))
driver.execute_script(n_link.get_attribute("href"))
except: break
driver.quit()
你打我吧......我不认为第一位将工作因为你不能在使用Selenium的不可见元素上使用'get_attribute()'。我打算建议他使用JSE,例如'.execute_script(“return arguments [0] .innerText”,name)'在你的情况。 – JeffC
@JeffC,'text'属性不允许获取隐藏元素的内容。 'get_attribute('textContent')'[为此目的正常工作](https://stackoverflow.com/questions/43429788/python-selenium-finds-h1-element-but-returns-empty-text-string/43430097# 43430097) – Andersson
感谢sir Andersson提供这样一个强大的解决方案。有一天我会想出一个难以解决的难题,因为你已经立于不败之地。再次感谢。 – SIM