Partage
  • Partager sur Facebook
  • Partager sur Twitter

scrap d'un site en local

probleme itteiration pour scrapper pages qui sont stockes sur mon pc

    30 décembre 2021 à 10:01:20

    bonjour
    j'ai aspire un site pour pouvoir travailler hors connexion dessus car je suis dans un endroit ou je ne peux pas avoir internet

    mon problème de scraping est de pouvoir itterer mon scrap de page en page

    l 'adresse de la home ce présente sous cette forme

    file:///D:/tennis%20mirror/tennis/www.hottennisbabes.com/index.html

    j'ai donc utilise cette facon pour ouvrir le fichier

    with open('D:\\tennis mirror\\tennis\\www.hottennisbabes.com\\index.html','r',encoding="utf8") as local_file:
    soup = BeautifulSoup(local_file, 'html.parser')
        nom= soup.find_all('h2',class_="entry-title")
    for item in nom:
        d=item.find("a")
        name=(d.get_text())
        lien = soup.find('a',class_="btn-readmore")
        girl=(d['href'])
    
        girls={
            'name':name,
            'lien':girl,
    
    
        }
        print(girls)

    les pages que j'arrive pas a itterer dans mon scrap sont de la forme suivante

    file:///D:/tennis%20mirror/tennis/www.hottennisbabes.com/page/2/index.html

    normalement (avec un site live) avec un f string en début et une variable {x} et une boucle ca devrait marcher mais la je bloque complètement 

    normalement avec un "f" string et une variable entre {} ça marche mais dans ce cas je n'y arrive pas

    est ce que tout d'abord c'est réalisable ? et si oui est ce que vous pouvez m'aider sur le fait de comment

    En vous remerciant

    • Partager sur Facebook
    • Partager sur Twitter

    scrap d'un site en local

    × Après avoir cliqué sur "Répondre" vous serez invité à vous connecter pour que votre message soit publié.
    × Attention, ce sujet est très ancien. Le déterrer n'est pas forcément approprié. Nous te conseillons de créer un nouveau sujet pour poser ta question.
    • Editeur
    • Markdown