Je suis en train de faire une mini cicada 3000, une petite succession d'énigmes sur le web.
Le problème c'est que la plupart de celles ci sont sur mon VPS. La plupart des énigmes consistent en une redirection de liens une fois l'énigme réussie. Et je viens de m'apercevoir qu'il était possible de "scanner" tous les URL d'un site notamment via :
J'imagine qu'il n'est pas possible de cacher ces liens. Mais c'est assez dérangeant pour moi qu'on puisse accéder aux liens vers lesquels je souhaite rediriger une fois un niveau réussi. Quelle astuce puis-je utiliser ?
A l'heure à la quel je te fait cette réponse, je ne vais pas fouiller dans mes archives, mais de tête j'avais fait une truc simple pour un site, en gros.
Redirection masqué sur le NDD, c'est a dire que tu auras toujours le NDD rien de plus, et pages en PHP au lieu de pages HTML.
Je ne sais plus trop si c’était avec des include ou pas.
Si j'ai le temps je fouillerais pour retrouver ça mais vois déjà de ce coté là.
A mon avis d'ici là tu auras sois trouvé, sois d'autres réponses plus novatrices.
P.S. je savait qu'il y avais un autre truc, le coup du pixel qui tue, à voir aussi de ce coté.
Google : Comment empêcher l'aspiration de mon site.
non robot.txt c'est juste fait pour les moteurs de recherche tel que google yahoo et bing et quelques autres qui acceptes de suivre les règles que tu leurs demandes, le robots txt en gros c'est le truc qu'on utilise auprès d'eux pour leurs dire tiens la ne référence pas là je suis en prod, ici tu va trouver mon plan de site, ici çà change tout les jours donc passe souvent me voire Etc...
Mais il y à des moteur de recherche ou bien même des crawler, eux tu peut mettre un robot.txt, il ne le calcule même pas.
et les liens du premier post tout comme les aspirateurs de web, jamais ils ne s'y attarderons, le robot.txt c'est une entente commune entre le moteur de recherche et le webmaster, absolument pas une règle de protection.
Plus j'y réfléchit et plus je me dit que de le coder pour android ios et en flash pour pc serrais le moyen le plus sur pour empêcher les gens ou les crawler de voir la destination suivante de la page.
Ben oui donc dans ce cas utilise un langage backend tant que tu codera en js... on trouvera toute facon toutes les solutions à tes quetes dans le code source
Merci pour les solutions apportées. Je garde le topic dans un coin pour l'avenir.
Finalement j'en ai pas vraiment eu besoin. j'ai simplement obsfuqué mon js, ça a suffit.
Cacher des URL ?
× Après avoir cliqué sur "Répondre" vous serez invité à vous connecter pour que votre message soit publié.
× Attention, ce sujet est très ancien. Le déterrer n'est pas forcément approprié. Nous te conseillons de créer un nouveau sujet pour poser ta question.
Compos sui.
Compos sui.