Cela m'intéresse aussi de savoir les techniques efficaces à adapter pour ce que tu propose car j'ai déja pensé à cela une fois pour protéger évidemment mon site.
Je ne m'y connais pas a ce niveau mais si tu peux forcer les gens a accepter les cookies, ou tu bloque l'utilisation de ton site. Mais c'est vrai que c'est pas très éthique si le but est d'assurer leur sécurité.
Alors je crois que les lois informatiques et libertés font que l'on ne peux pas FORCER un utilisateur à accepter les cookies. Si on les utilise, il me semble bien qu'on a obligation des les en informer et d'avoir une totale transparence sur leur utilisation ( ce qu'on stocke dedans, pourquoi, etc. ).
Maintenant, il existe des moyens de protéger son site contre les bots. Mais il faut aussi savoir que par exemple google utilise des bots pour référencer les sites. Ils viennent, prennent quelques photos et se barrent sans rien toucher. C'est surtout les accès aux fichiers et à la bdd qu'il faut savoir protéger.
Voici un petit lien qui explique deux trois types d'attaques et comment s'en protéger, et qui linke vers de la doc de plus haut niveau sur la question :
Concernant la loi, oui si tu utilises des cookies tu dois en informer l'utilisateur mais tu peux le forcer dans le sens ou tu lui dis accepter ceci vous n'aurez plus a le faire je l'utilise uniquement pour la sécurité. S'il accepte c'est clean sinon tu bloques l'acces a tes pages c'est ce que j'appelle forcé. Et toujours au niveau de la loi un cookie a une durée de je crois 1 an a ne pas dépasser faudra voir. apres niveau protection anti robot comme je l'ai dis je ne m'y connais pas vraiment. Mais je rejoins lucas dans le sens où si ton site est bien protégé de base c'est bien apres s'il y a des cas spécifiques que tu connais et dont tu veux te protéger la....
La durée de validité d'un cookie peut être paramétrée. 5mn, 10mn. Les mesures dont il est question dans le lien DOIVENT être suivies pour bien protéger un site, parce qu'il n'y a pas que les bots qui peuvent faire du dégât. Après, pour les protection anti-bots, je n'en connais pas, mais je suis sûr qu'une bonne petite recherche google permet de trouver des solutions efficaces et simples à mettre en place.
Pour ma part, pour bloquer les robots, je bloque certains user-agent (httprequest, python...), je bloque certains hébergeurs (googleusercontent.com), et je ban les visiteurs tapant des urls comme /wp-admin.php.
Je bloque aussi les utilisateurs de tor et ceux qui n'activent pas javascript, car je pourrais faire d'autres vérifs avec.
Sinon, j'ai enlever ma protection par cookie en attente de l'avis de quelqu'un, et je crois que certains robots ne les prennent pas en charge.
@piero5673, je n'utiliserais jamais de recaptcha, car je ne veux pas utiliser la création d'autres personnes, qui en plus, doivent sûrement chopper de petites infos croustillantes.
Sachez que de toute façon, les robots sont très difficiles à détecter, car j'ai réussi à naviguer sur discord et les sites de google avec la bibliothèque js Playwright.
Mais peut-être que cette librairie peut être bloqué par les cookies, car les sites autorisent la désactivation des cookies, il faut donc faire le test.
Sinon, pour le test cookie, il faut le faire en js car il a des problèmes en php.
- Edité par Iconic I Clash 21 septembre 2021 à 17:39:27
@piero5673, je n'utiliserais jamais de recaptcha, car je ne veux pas utiliser la création d'autres personnes, qui en plus, doivent sûrement chopper de petites infos croustillantes.
Les captcha ce n'est pas une invention de google, tu peux le créer toi-même. Ca reste une solution facile à mettre en place et ça bloque à 100% les utilisateurs qui sont des robots, tout en laissant les utilisateurs humain accéder à ton site web.
bots malveillants ? c'est vagues, tu aurais des exemples de ce que tu recherches en particulier ? Si c'est une solution contre les bots de spam que tu recherches, tu peux implementer la technique "honeypot" en utilisant des champs cache (https://www.mistersize.com/blog/contact-spam-honeypot-wordpress/), sinon un bon vieux captcha XD, comme cite plus haut.
- Edité par sadeku 25 septembre 2021 à 14:09:01
Principe de KISS - Ne faire qu'une seule chose, et la faire bien.
Tous les robots indésirables sont identifiés grâce à leur empreinte technique et bloqués en temps réel, tandis qu’une analyse comportementale supplémentaire nous permet de détecter et de bloquer même les robots les plus récents et les plus sophistiqués en moins de 10 ms.
Protection anti-robot : test cookie
× Après avoir cliqué sur "Répondre" vous serez invité à vous connecter pour que votre message soit publié.
× Attention, ce sujet est très ancien. Le déterrer n'est pas forcément approprié. Nous te conseillons de créer un nouveau sujet pour poser ta question.
yasakani no magatama
yasakani no magatama
yasakani no magatama
Pas d'aide concernant le code par MP, le forum est là pour ça :)