我想凑带班锚链接=“_ 1UoZlX”从这个特定页面的搜索结果 - https://www.flipkart.com/search?as=on&as-pos=1_1_ic_sam&as-show=on&otracker=start&page=6&q=samsung+mobiles&sid=tyy%2F4io刮元素反应JS与BeautifulSoup
当我创建页面上的一汤,我意识到,搜索结果正在使用React JS呈现,因此我无法在页面源代码中找到它们(或在汤中)。
这里是我的代码
import requests
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
listUrls = ['https://www.flipkart.com/search?as=on&as-pos=1_1_ic_sam&as-show=on&otracker=start&page=6&q=samsung+mobiles&sid=tyy%2F4iof']
PHANTOMJS_PATH = './phantomjs'
browser = webdriver.PhantomJS(PHANTOMJS_PATH)
urls=[]
for url in listUrls:
browser.get(url)
wait = WebDriverWait(browser, 20)
wait.until(EC.visibility_of_element_located((By.CSS_SELECTOR, "_1UoZlX")))
soup = BeautifulSoup(browser.page_source,"html.parser")
results = soup.findAll('a',{'class':"_1UoZlX"})
for result in results:
link = result["href"]
print link
urls.append(link)
print urls
这是我得到的错误。
Traceback (most recent call last):
File "fetch_urls.py", line 19, in <module>
wait.until(EC.visibility_of_element_located((By.CSS_SELECTOR, "_1UoZlX")))
File "/usr/local/lib/python2.7/site-packages/selenium/webdriver/support/wait.py", line 80, in until
raise TimeoutException(message, screen, stacktrace)
selenium.common.exceptions.TimeoutException: Message:
Screenshot: available via screen
有人在this answer提到,有使用硒来处理网页上的JavaScript的方式。有人可以详细说明吗?我做了一些谷歌搜索,但无法找到适用于这种特殊情况的方法。
我正在使用无头浏览器。可能是这个原因。将尝试与常规浏览器。 – dontpanic
无头浏览器应该可以正常工作。普通浏览器将很容易看到输出。问题修复后,您可以切换到常规浏览器。 Flipkart在大多数时间打开错误页面。您应该让脚本在发生时单击“重试”按钮。 – Sriraman