Partage
  • Partager sur Facebook
  • Partager sur Twitter

Un fichier Robots.txt éternel!

Difficultés avec Google Search Console et la mise à jour

    19 juin 2023 à 21:29:02

    Bonjour,

    mon fichier robots.txt est maudit,
    j'ai rajouté une ligne pour bloquer un répertoire de mon site et depuis malgré la suppression de cette ligne,
    google search console considère qu'elle est toujours là!

    J'utilise le plugin de WordPress TranslatePress : https://translatepress.com/
    Pour mon site : https://wikihhc.com/ qui me permet de traduire en plusieurs langues sauf qu'il y a toujours un travail à refaire sur les url car elles ne sont pas forcement traduite de la meilleurs des façons donc lorsque j'ai lancé la version hongroise du site : https://wikihhc.com/hu/

    j'ai rajouté une ligne :

    Disallow: /hu/

    qui correspond au dossier où se situe les pages traduites, le temps de faire les modifications afin que notre ami google n'indexe pas des pages qui vont être modifié dans les prochaines 24H.
    Une fois que j'ai terminé la traduction, j'enlève cette ligne de mon robots.txt et c'est là que mon problème commence!
    Google search console m'indique que l'es url commençant par /hu sont bloqué par le robots.txt hors ce n'est plus le cas!
    Comme vous pouvez le voir dans le contenu de mon fichier robots.txt ci dessous.

    User-agent: *
    Disallow: /wp-admin/
    Allow: /wp-admin/admin-ajax.php
    
    Sitemap: https://wikihhc.com/sitemap_index.xml

    Avez vous une idée de comment résoudre ce problème?


    Merci par avance!

    -
    Edité par LucasLopez19 19 juin 2023 à 21:37:42

    • Partager sur Facebook
    • Partager sur Twitter
      21 juin 2023 à 10:34:03

      J'avance dans mes recherches
      Lorsque j'ai lancer la traduction , j'ai ajouté juste après la ligne Disallow et je l'ai supprimé quelque chose comme 5 h plus tard...
      Je viens de découvrir quelque chose de bizarre, j'ai un robots.txt  à la racine dossiers traduits :  https://wikihhc.com/hu/ avec ce code :
      User-agent: * Disallow: /wp-admin/ Engedélyezés: /wp-admin/admin-ajax.php Webhelytérkép: https://wikihhc.com/sitemap_index.xml
      Qui n'est pas présent dans gestionnaire de fichier donc il doit etre généré dynamiquement.
      Et c'est la même histoire avec la version espagnole https://wikihhc.com/es/ et les autres langue par exemple j'ai me retrouve avec un robots.txt traduit en espagnol   :
      Agente de usuario: * No permitir: /wp-admin/ Permitir: /wp-admin/admin-ajax.php Mapa del sitio: https://wikihhc.com/sitemap_index.xml
      Le plugin de traduction doit traduire mon fichier robots.txt et au lieu de "user agent" je me retrouve avec un "Agente de usuario", c'est magnifique!
      Donc je suppose que je dois creuser  dans cette direction également...
      • Partager sur Facebook
      • Partager sur Twitter

      Un fichier Robots.txt éternel!

      × Après avoir cliqué sur "Répondre" vous serez invité à vous connecter pour que votre message soit publié.
      × Attention, ce sujet est très ancien. Le déterrer n'est pas forcément approprié. Nous te conseillons de créer un nouveau sujet pour poser ta question.
      • Editeur
      • Markdown