Des outils pour protéger votre site Web il en existe des dizaines, mais la Team AAZ a choisi de travailler avec Crawlprotect.
En effet, après en avoir utilisé et testé plusieurs, nous avons choisi celui-ci pour deux raisons essentielles :
- il est très simple d’installation et d’utilisation.
- il est gratuit !
Voici donc la démarche à suivre pour installer cette protection sur votre site :
c) Uploader sur votre site le dossier crawlprotect (vous pouvez le renommer, mais il ne faudra pas changer ce nom après la création du fichier htaccess)
d) Rendez-vous à l'adresse de votre CrawlProtect, (http://www.votresite.truc/crawlprotect/" onclick="window.open(this.href);return false;), choisissez la langue à utiliser et créez votre login et mot de passe (Le mot de passe doit contenir des majuscules, des minuscules et des chiffres !)
e) Une fois logué, la première chose à faire et d'aller sur la page d'administration pour créer votre fichier htaccess. Choisissez les paramètres qui correspondent à votre site et lancez la création du fichier htaccess. S’il y a déjà un fichier htaccess en place, pas d'inquiétude, CrawlProtect va copier son contenu dans le nouveau fichier.
f) Si votre hébergeur bloque la création du fichier htaccess (et c’est plutôt une bonne nouvelle), il vous faudra le créer manuellement (Un simple fichier texte enregistré en .htaccess) et le copier à la racine de votre site web.
g) Une fois crawlprotect en place vous devez avoir cette page d’accueil à l’adresse http://www.votresite.truc/crawlprotect/" onclick="window.open(this.href);return false;
h) Mais surtout vérifiez que le htaccess est bien place :
Et voilà l’installation de crawlprotect sur votre site est déjà terminée !
CrawlProtect fonctionne en toute autonomie, vous n'avez donc rien à faire de plus !
Pour les amateurs du genre sachez que Crawlprotect vous protège notamment contre :
- les tentatives d'injection de code
- les tentatives d'injection SQL
- les visites de robot connus comme étant des "Badbots" (robot utilisés par les hackers)
- les aspirateurs de site
- les tentatives d'éxécution de commande shell
Votre site web est maintenant sécurisé par un outil puissant !
Règlement du forum Toute demande d'aide ou de liens par MP est inutile !
Très bien CrawlProtect. Donc Prof tu as enfin rédigés le tuto cool. Il y a des personnes qu'on oublie de remercier, si je me rapelle bien le sujet démarrait de ce thread :
Le dev ne se réduit pas à du simple copier/coller de codes sources mais à une incommensurable phase d'apprentissage d'un domaine en perpétuelle évolution ! http://3dotdevcoder.blogspot.fr/
Désolé de ne pas l'avoir également cité dans le tuto, j'espère n'avoir offensé personne, et à l'avenir je citerais Toolman à chaque fois que je prononcerais le nom "crawlprotect" promis...
Règlement du forum Toute demande d'aide ou de liens par MP est inutile !
Désolé de ne pas l'avoir également cité dans le tuto, j'espère n'avoir offensé personne, et à l'avenir je citerais Toolman à chaque fois que je prononcerais le nom "crawlprotect" promis...
.....lool je n'en demandais pas mais si tu le dis après tout il n'est jamais trop tard pour prendre de bonnes résolutions nous sommes toujours en début d'année 2012. hi hi hi.
A+
Le dev ne se réduit pas à du simple copier/coller de codes sources mais à une incommensurable phase d'apprentissage d'un domaine en perpétuelle évolution ! http://3dotdevcoder.blogspot.fr/