0
我想从德国的网站上获取一些信息。由于此网站通过点击网站底部的向下箭头加载更多内容,我认为我应该使用selenium
来实现加载过程。之后,脚本应通过BeautifulSoup获取所需信息并将其提取到CSV文件。Python3,Selenium,BeautifulSoup4堆栈不会从网站加载更多信息
不幸的是我的脚本似乎没有点击所需的按钮,所以我只收到第一部分信息。
我的代码如下:
import csv
import requests
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
with open('shoop.csv','w', encoding='utf-8') as csv_file:
csv_writer = csv.writer(csv_file, delimiter=";")
csv_writer.writerow(['Headline', 'Cashback'])
driver = webdriver.Firefox()
driver.get('https://www.shoop.de/stoebern/haus_technik/3/popular/')
driver.find_element_by_class_name('icon-down_open_big').click()
r = driver.page_source
driver.quit()
soup = BeautifulSoup(r)
for advertiser in soup.find_all('div', {'class': 'merchant_item'}):
headline = advertiser.find('h3', {'class':'merchant_name'}).text
cashback = advertiser.find('span', {'class':'rates_number'}).text
liste = ([headline, cashback])
print(liste)
csv_writer.writerow(liste)
csv_file.close()
THX列娃,救了我的一天。如果在我的代码中有一点额外的睡眠时间,那么导出到csv会按预期工作。 –