Пройдите через все URL-адреса
Привет ребята,
У меня есть проблема со следующим:
Я тестирую Python с помощью веб-драйвера selenium.
Мне нужно загрузить данные разных веб-страниц, схема одинакова на всех страницах, разница заключается в URL, так как последнее значение является переменным, оно может быть числом от 1 до 100. Эти URL-адреса находятся в каталоге a в текстовом файле.
Итак, есть ли какой-нибудь способ просмотреть все эти URL-адреса и извлечь данные из каждого из них?
Примечание: веб-страницы являются динамическими и обновляются каждые пять минут с помощью js и json.
Но я получаю следующее:
C:\Users\JDani\AppData\Local\Programs\Python\Python37-32\python.exe C:/Users/JDani/.PyCharmCE2019.1/config/scratches/scratch_7.py 1 None , None 2 None , None 3 None , None 4 None , None 5 None
Заранее спасибо
Что я уже пробовал:
''' Try with following code ''' baseurl = requests.get('http://mi.dominio.net/Report?server=xxx.xxx.xxx.xx&PC=') valid_url = '1,2,3,4,5' for n in range(len(valid_url)): url = f'{baseurl}{valid_url[n]}' driver.get(url) print(url) print(pages.title) ''' after save data in text file '''
This is what I have, could you help me or any suggest? <pre lang="Python"><pre>from selenium import webdriver from selenium.common.exceptions import TimeoutException from selenium.webdriver.common.action_chains import ActionChains from selenium.webdriver.common.desired_capabilities import DesiredCapabilities from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC from selenium.webdriver.common.by import By import os from pandas import ExcelWriter import pandas as pd mipath = "C:/test" desired_capabilities = DesiredCapabilities.CHROME desired_capabilities["pageLoadStrategy"] = "none" driver = webdriver.Chrome('/Users/JDan/Documents/Proyect/chromedriver/chromedriver.exe') wait = WebDriverWait(driver, 20) ''' Try with following code ''' baseurl = requests.get('http://mi.dominio.net/Report?server=xxx.xxx.xxx.xx&PC=') valid_url = '1,2,3,4,5' for n in range(len(valid_url)): url = f'{baseurl}{valid_url[n]}' driver.get(url) print(url) print(pages.title) ''' after save data in text file ''' try: wait.until(EC.presence_of_all_elements_located((By.CLASS_NAME, "CutterValue"))) '''os.stat(mipath)''' except TimeoutException: print('Nope') else: '''os.mkdir(mipath)''' driver.execute_script("window.stop();") content = driver.find_elements_by_class_name("CutterValue") codes = [element.text for element in content] '''Save data in Text file''' file = open(mipath + "/mytext.txt", "a") file.write('\n' + str(codes)) file.close() '''print(codes)''' driver.close() '''Save data in Excel file''' df = pd.DataFrame(codigos) writer = ExcelWriter('./a.xlsx') df.to_excel(writer,'Sheet1') writer.save()