Les sous-pages et les ré­per­toires de votre site ne sont pas im­por­tants au point de devoir né­ces­sai­re­ment tous être explorés par les moteurs de recherche courants. À l’aide du fichier robots.txt, vous pouvez dé­ter­mi­ner quelles sous-pages de WordPress doivent être prises en compte par le robot d’ex­plo­ra­tion et les­quelles ne le doivent pas. Vous améliorez ainsi con­si­dé­ra­ble­ment le po­si­tion­ne­ment de votre site Web dans les re­cherches en ligne. Nous vous ex­pli­quons ici à quoi sert le fichier robots.txt dans WordPress et comment l’optimiser vous-même.

Nom de domaine
Votre domaine en un clic
  • 1 cer­ti­fi­cat SSL Wildcard par contrat
  • Fonction incluse Domain Connect pour une con­fi­gu­ra­tion DNS sim­pli­fiée

Qu’est-ce que robots.txt pour WordPress ?

24 heures sur 24, des robots d’ex­plo­ra­tion par­cou­rent Internet à la recherche de sites Web. Les robots sont envoyés par chaque moteur de recherche et sai­sis­sent le plus grand nombre possible de pages et de sous-pages (in­dexa­tion) afin de les rendre dis­po­nibles pour la recherche. Pour que les robots d’ex­plo­ra­tion puissent bien lire votre site, ils doivent être guidés. Vous éviterez ainsi d’indexer des contenus de votre site qui ne sont pas per­ti­nents pour les moteurs de recherche et vous vous assurerez que le robot d’ex­plo­ra­tion ne lit que les contenus qu’il doit lire.

Pour ce contrôle, vous pouvez utiliser le fichier robots.txt. Dans le cas de WordPress et d’autres CMS, vous dé­ter­mi­nez avec ce fichier quelles parties de votre site Web sont saisies par les crawlers et les­quelles ne le sont pas. Le fichier robots.txt vous permet d’exclure ou d’autoriser les robots et de faire des dis­tinc­tions précises entre les entrées qui doivent être trouvées par les moteurs et les autres, et qui les diffusent ensuite dans la recherche. Comme chaque domaine ne dispose que d’un budget d’ex­plo­ra­tion limité, il est d’autant plus important de pousser les pages prin­ci­pales et de retirer les sous-pages in­sig­ni­fiantes du volume de recherche.

Conseil
Le domaine de vos rêves en seulement quelques étapes ! En­re­gis­trez fa­ci­le­ment votre domaine idéal chez IONOS et profitez d’un excellent service, de nom­breuses fonctions de sécurité et d’une boîte email de 2 Go.

À quoi sert le fichier robots.txt dans WordPress ?

Il y a de grands avantages à ce que le fichier robots.txt de WordPress détermine exac­te­ment quels contenus sont indexés et lesquels ne le sont pas. Alors que votre page d’accueil doit être bien classée pour toutes les re­cherches possibles, il n’en va pas de même pour les mentions légales de votre site. Les com­men­taires ou les archives n’apportent pas non plus de valeur ajoutée dans la recherche et peuvent même, au contraire, présenter des in­con­vé­nients, lorsque les moteurs de recherche re­con­nais­sent ici le duplicate Content et l’évaluent né­ga­ti­ve­ment, par exemple. Avec un fichier robots.txt sur WordPress, vous excluez au mieux de tels cas et dirigez plutôt les dif­fé­rents robots d’ex­plo­ra­tion vers les parties de votre site qui doivent vraiment être trouvées.

Le fichier robots.txt au­to­ma­tique de WordPress

Au début, WordPress crée lui-même un fichier robots.txt et effectue ainsi le travail pré­pa­ra­toire de base. Toutefois, celui-ci est peu étendu et doit donc être considéré avant tout comme un point de départ. Voici à quoi il ressemble :

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/

L’« user-agent » de la première ligne désigne ici les crawlers. « * » exprime que tous les moteurs de recherche peuvent envoyer leurs robots sur votre site. C’est en principe re­com­mandé dans un premier temps, car cela permet à votre site d’être trouvé plus souvent. La commande « Disallow » bloque les ré­per­toires suivants pour les robots d’ex­plo­ra­tion – dans ce cas, il s’agit de l’ad­mi­nis­tra­tion et du ré­per­toire de tous les fichiers chez WordPress. Robots.txt les bloque pour les moteurs de recherche, car les visiteurs n’ont rien à faire sur les pages con­cer­nées. Afin d’être ef­fec­ti­ve­ment la seule personne à pouvoir y accéder, protégez ces domaines par un bon mot de passe.

Conseil
En tant qu’ad­mi­nis­tra­teur, vous pouvez également protéger votre connexion WordPress en utilisant le fichier .htaccess.

Que doit contenir un fichier robots.txt sur WordPress ?

Les moteurs de recherche comme Google doivent bien sûr continuer à trouver fa­ci­le­ment votre site. Les services réputés nuisibles ou douteux comme Dugg­Mir­ror ne le doivent toutefois pas ; vous pouvez les exclure de WordPress avec robots.txt. Pour cela, vous devez exclure de l’in­dexa­tion les thèmes, vos mentions légales et les pages qui n’ont pas ou peu de per­ti­nence. Les plugins ne devraient pas non plus être indexés, non seulement parce qu’ils ne sont pas per­ti­nents pour le public, mais aussi pour des raisons de sécurité. Si un plugin présente un problème de sécurité, votre site peut être de cette manière trouvé et endommagé par des pirates.

Dans la plupart des cas, les deux commandes déjà men­tion­nées ci-dessus vous suffiront pour utiliser ju­di­cieu­se­ment robots.txt sur WordPress : « User-agent » détermine auprès de quels bots il faut s’adresser. Vous pouvez ainsi définir des ex­cep­tions pour certains moteurs de recherche ou établir des règles de base. « Disallow » interdit aux robots d’ex­plo­ra­tion l’accès à une page ou sous-page cor­res­pon­dante. La troisième commande « Allow » n’a pas d’im­por­tance dans la plupart des cas, car l’accès est autorisé par défaut. Vous n’avez besoin de cette commande que si vous souhaitez bloquer une page mais débloquer son sous-site.

Conseil
Le moyen le plus rapide de créer son propre site Web : l’hé­ber­ge­ment Wordpress de IONOS séduit par ses nombreux avantages. SSD, HTTP/2 et gzip sont également inclus, tout comme trois domaines gratuits en per­ma­nence. Choi­sis­sez le modèle tarifaire qui vous convient le mieux !

Modifier ma­nuel­le­ment le fichier Robots.txt sur WordPress

Pour des adap­ta­tions in­di­vi­duelles, il est bon d’élargir soi-même le robots.txt de WordPress. Pour cela, il suffit de suivre quelques étapes simples.

Étape 1 : tout d’abord, créez un fichier vide appelé « robots.txt » dans un éditeur de texte quel­conque.

Étape 2 : vous les té­lé­char­gez ensuite dans le ré­per­toire racine de votre domaine.

Étape 3 : vous pouvez main­te­nant modifier le fichier via SFTP ou té­lé­char­ger un nouveau fichier texte.

Avec les commandes ex­pli­quées ci-dessus, vous contrôlez main­te­nant les règles et les ex­cep­tions qui s’ap­pli­quent à votre site Web. Comment bloquer l’accès à un dossier spé­ci­fique :

Et voici comment interdire l’accès à votre site à un bot donné :

Plugins pour la création d’un fichier robots.txt sur WordPress

Vous pouvez également créer et modifier le fichier robots.txt sur WordPress avec un plugin SEO. Cela se fait très fa­ci­le­ment et en toute sécurité dans le tableau de bord et peut donc être encore plus simple. Un plugin populaire à cet effet est Yoast SEO.

Étape 1 : vous devez d’abord installer et activer le plugin.

Étape 2 : permettez ensuite au plugin d’effectuer des mo­di­fi­ca­tions avancées. Pour cela, allez sur « SEO » > « Tableau de bord » > « Fonc­tion­na­li­tés » et cliquez sur « Activés » sous le point « Pa­ra­mètres avancés de la page ».

Étape 3 : après cette ac­ti­va­tion, effectuez des mo­di­fi­ca­tions dans le tableau de bord sous « SEO » > « Outils » > « Éditeur de fichiers ». Vous pouvez y créer et modifier di­rec­te­ment un nouveau fichier robots.txt sur WordPress. Les mo­di­fi­ca­tions sont ensuite di­rec­te­ment mises en œuvre.

Comment tester les chan­ge­ments ?

Main­te­nant que vous avez configuré votre site, que vous avez fixé des règles et que vous avez, en théorie du moins, bloqué les robots d’in­dexa­tion et rendu les sous-pages in­vi­sibles, il est temps de passer à l’action. Mais comment savoir si toutes vos mo­di­fi­ca­tions ont bien été ef­fec­tuées ? Pour cela, consultez l’aide de Google Search Console. Dans celle-ci, vous trouverez sur le côté gauche sous « Crawl » le « robots.txt Tester ». Vous y saisissez vos pages et sous-pages et voyez ensuite si elles peuvent être trouvées ou si elles sont bloquées. Un « autorisé » en vert en bas à droite signifie que les crawlers trouvent la page et la prennent en compte, un « non autorisé » en rouge signifie que la page n’est pas indexée.

En résumé : robots.txt optimise et protège votre site Web

Le fichier robots.txt est pour WordPress une méthode aussi simple qu’efficace pour dé­ter­mi­ner quelles parties de votre site doivent être trouvées et par qui. Si dans tous les cas vous utilisez déjà un plugin SEO comme Yoast, le plus simple est de l’utiliser pour effectuer les mo­di­fi­ca­tions. Sinon, le fichier peut aussi être créé et adapté ma­nuel­le­ment sans problème.

Conseil

Dans le guide digital de IONOS, vous trouverez de précieux conseils sur le thème de WordPress. Nous vous aidons à éviter les erreurs WordPress les plus fré­quentes, nous vous ex­pli­quons comment rendre WordPress plus rapide et comment utiliser Gutenberg de WordPress. Vous êtes sûr de trouver des réponses adaptées ici.

Aller au menu principal