Vous utilisez un navigateur obsolète, veuillez le mettre à jour.
Veuillez utiliser un navigateur internet moderne avec JavaScript activé pour naviguer sur OpenClassrooms.com
Une question ? Pas de panique, on va vous aider !
bonjour j'ai aspire un site pour pouvoir travailler hors connexion dessus car je suis dans un endroit ou je ne peux pas avoir internet mon problème de scraping est de pouvoir itterer mon scrap de page en page l 'adresse de la home ce présente sous cette forme
file:///D:/tennis%20mirror/tennis/www.hottennisbabes.com/index.html
j'ai donc utilise cette facon pour ouvrir le fichier
with open('D:\\tennis mirror\\tennis\\www.hottennisbabes.com\\index.html','r',encoding="utf8") as local_file:
soup = BeautifulSoup(local_file, 'html.parser') nom= soup.find_all('h2',class_="entry-title") for item in nom: d=item.find("a") name=(d.get_text()) lien = soup.find('a',class_="btn-readmore") girl=(d['href']) girls={ 'name':name, 'lien':girl, } print(girls)
les pages que j'arrive pas a itterer dans mon scrap sont de la forme suivante
file:///D:/tennis%20mirror/tennis/www.hottennisbabes.com/page/2/index.html
normalement (avec un site live) avec un f string en début et une variable {x} et une boucle ca devrait marcher mais la je bloque complètement
normalement avec un "f" string et une variable entre {} ça marche mais dans ce cas je n'y arrive pas est ce que tout d'abord c'est réalisable ? et si oui est ce que vous pouvez m'aider sur le fait de comment
En vous remerciant
Vous pouvez rédiger votre message en Markdown ou en HTML uniquement.