Le Black Hat SEO désigne des méthodes d’op­ti­mi­sa­tion pour les moteurs de recherche qui tentent de manipuler le clas­se­ment d’un site Web, gé­né­ra­le­ment en trompant ou en con­tour­nant les di­rec­tives de Google. Les tech­niques de Black Hat SEO peuvent donner des résultats à court terme, mais en­traî­nent à long terme des pénalités ou une exclusion de l’index Google.

New call-to-action

Que se cache derrière l’ex­pres­sion « SEO Black Hat » ?

Si le terme « Black Hat » s’est largement répandu dans les cercles de hackers, il vient à l’origine d’un domaine tout à fait différent. Dans les duels des films de western, les gredins portent souvent un chapeau noir, un « Black Hat », tandis que les gentils relèvent les défis en chapeau blanc. Ce terme peut être décrit de plusieurs manières, mais l’idée d’une pratique trouble et interdite demeure. Pour certains, il s’agit de méthodes douteuses pour générer des liens ; pour d’autres, c’est purement et sim­ple­ment du spam. Dans tous les cas, les astuces Black Hat visent à s’éloigner des consignes de qualité of­fi­cielles des moteurs de recherche pour défier la con­cur­rence.

Lorsque les en­tre­prises lancent un nouveau site, elles doivent en­tre­prendre un travail de long terme pour espérer atteindre les premières places de Google, Bing ou autres. Se bâtir une bonne ré­pu­ta­tion et gagner la confiance des uti­li­sa­teurs est pri­mor­dial pour gagner la course aux meil­leures places. Le site doit alors envoyer les bons signaux à Google pour qu’il évalue ses pages po­si­ti­ve­ment. Parmi les critères de ré­fé­ren­ce­ment Google, on retrouve la cré­di­bi­lité et la fiabilité du site, réunies dans ce que l’on appelle le Domain Trust.

Avec le Black Hat SEO, l’objectif est de con­vaincre que son site est plus pertinent, plus in­té­res­sant et plus important qu’il ne l’est vraiment. Si Google constate des vio­la­tions des Es­sen­tiels de la recherche Google résultant de tech­niques de Black Hat SEO, les mesures peuvent être sévères : les pages du site peuvent être dé­clas­sées, voire bannies de l’index Google. Grâce au système RankBrain de Google basé sur l’IA, les méthodes de Black Hat sont de mieux en mieux détectées, car elles ne peuvent plus déjouer l’analyse sé­man­tique effectuée par RankBrain. En effet, l’outil prend en compte non seulement les mots-clés, mais aussi le com­por­te­ment des uti­li­sa­teurs et le contexte pour mieux com­prendre la per­ti­nence des contenus.

Les tech­niques de ré­fé­ren­ce­ment Black Hat

Une pratique im­por­tante en SEO consiste en l’op­ti­mi­sa­tion offpage. L’objectif est alors de pro­mou­voir son site depuis l’extérieur en acquérant des liens de tierces parties. En effet, tout lien d’une page externe renvoyant vers son site est perçu par Google comme une sorte de re­com­man­da­tion. La course aux liens est donc lancée ! Google ne s’y oppose pas, si les liens retour ou backlinks sont générés na­tu­rel­le­ment, par exemple en étant glissés dans des contenus de qualité ou en ap­pa­rais­sant dans des articles partagés par les in­ter­nautes.

Les autres pratiques visent à obtenir des résultats de clas­se­ment sans investir de temps ni d’argent dans le content marketing ou le social media marketing. Vous trouverez ci-dessous quelques-unes des mesures de Black Hat SEO les plus courantes.

Les pages sa­tel­lites ou doorway pages

Les pages dites sa­tel­lites sont des pages op­ti­mi­sées spé­ci­fi­que­ment pour les moteurs de recherche, mais in­vi­sibles des uti­li­sa­teurs. Ces pages or­phe­lines vont alors par exemple regorger de mots-clés in­té­res­sants pour Google. L’in­ter­naute ne les voit jamais car il est di­rec­te­ment redirigé vers une autre page. L’objectif est d’augmenter le nombre de liens de la page réelle et ainsi d’améliorer son po­si­tion­ne­ment. Si cette technique était au­pa­ra­vant assez répandue, elle est aujourd’hui délaissée, Google re­con­nais­sant main­te­nant les pages sa­tel­lites comme des pratiques abusives.

Le cloaking

L’uti­li­sa­tion du cloaking (soit « dis­si­mu­la­tion » en anglais) permet de cacher deux sites Web dif­fé­rents sous un même URL, l’un pour les moteurs de recherche, l’autre pour les uti­li­sa­teurs réels. Un script permet un effet de repérer s’il s’agit d’un visiteur ou d’un robot. Pour le robot s’affiche une page dédiée à optimiser le ré­fé­ren­ce­ment, com­por­tant ainsi beaucoup de texte et de mots-clés. La page destinée à l’in­ter­naute est tout autre, elle est davantage tra­vail­lée : elle contient gé­né­ra­le­ment plus d’éléments mul­ti­mé­dia comme des vidéos. Cela s’explique par le fait que les in­dexa­tions se font prin­ci­pa­le­ment à partir des textes. Comme les autres éléments sont presque in­vi­sibles pour le robot crawler, ils sont remplacés sur les pages de cloaking par du texte SEO. Cependant, cette pratique est main­te­nant fa­ci­le­ment détectée par Google et peut amener votre site à être bla­ck­listé.

L’achat de liens

Voici une astuce Black Hat toujours utilisée : le link­buil­ding ar­ti­fi­ciel grâce à l’achat de liens. Comme le nom le sous-entend, les backlinks ne sont pas générés na­tu­rel­le­ment mais achetés. Le but est une nouvelle fois d’optimiser son site en mul­ti­pliant les liens. Google attache néanmoins une grande im­por­tance aux liens naturels, qui sont issus de contenus récents et à fortes valeurs ajoutées. Les règles du moteur de recherche in­ter­di­sent en effet la vente, l’achat, l’échange et la location de liens : si la tromperie est dé­cou­verte, le risque est de voir sa page chuter dans les résultats de recherche ou d’être, une nouvelle fois, exclue de l’index.

Les réseaux de blogs privés (PBN) sont par­ti­cu­liè­re­ment risqués. Il s’agit de réseaux de liens créés ar­ti­fi­ciel­le­ment dans le seul but de générer des backlinks. Dans l’achat de liens, on trouve également ce qui a été appelé les liens russes. Ce sont des liens bon marché provenant de l’étranger, le plus souvent de Russie. Bien sûr, Google sanc­tionne également ces achats.

La mul­ti­pli­ca­tion de mots-clés

Le bourrage de mots-clés (Keyword-stuffing en anglais) cor­res­pon­dant à sur-optimiser le nombre de mots-clés. La technique consiste à placer le plus de mots-clés possibles dans un texte afin qu’il paraisse pertinent aux yeux de Google. Elle date main­te­nant des débuts du ré­fé­ren­ce­ment naturel et n’a plus grand effet. Grâce aux nom­breuses mises à jour des al­go­rithmes de Google, les sites Web com­por­tant un nombre excessif de mots-clés peuvent être ra­pi­de­ment filtrés et sont alors sanc­tion­nés.

Contenu caché

Ce classique, qui consiste à cacher du texte ou des liens, a perdu de la vitesse. Si la technique fonc­tion­nait avant, elle est main­te­nant rarement utilisée. L’astuce était de dis­si­mu­ler des mots-clés per­ti­nents, en les écrivant par exemple en blanc sur un fond blanc. Ainsi, sans que l’in­ter­naute n’ait à se sentir irrité par une uti­li­sa­tion massive de mots-clés, le moteur de recherche était in­ter­pellé. Des liens pouvaient être dis­si­mu­lés de la même manière en étant insérés sur des ca­rac­tères discrets (par exemple un trait d’union). Depuis, Google a découvert ces passages de textes et a inscrit la pratique dans sa liste des tech­niques abusives.

Thin AI content et spam IA

Avec l’ap­pa­ri­tion des outils d’IA gé­né­ra­tive, le monde de la ma­ni­pu­la­tion des moteurs de recherche a également changé. Les pages dites thin IA pages (contenu léger créé par IA) sont de plus en plus fré­quentes. On désigne ainsi les sites Web dont le contenu a été créé à l’aide de l’in­tel­li­gence ar­ti­fi­cielle, mais qui n’apportent guère de valeur ajoutée aux uti­li­sa­teurs. Ces pages sont certes produites ra­pi­de­ment, mais ne con­sis­tent gé­né­ra­le­ment qu’en un texte su­per­fi­ciel et vide de sens, sans in­for­ma­tions ap­pro­fon­dies.

Google a réagi de manière ciblée à cette tendance avec plusieurs mises à jour de l’al­go­rithme et identifie de manière de plus en plus fiable le contenu spam généré par IA. De telles pages risquent une nette dé­va­lua­tion dans le clas­se­ment, voire une exclusion complète de l’index. Là encore, ce qui semble simple à court terme peut s’avérer très dom­ma­geable à long terme.

Optimiser son site en gardant les mains propres

Ce qu’il faut retenir : les pratiques de Black Hat SEO per­met­tent certes des résultats sé­dui­sants sur le court terme mais elles pré­sen­tent un risque sur la durée. En effet, Google finit tôt ou tard par découvrir ces abus.

Les sanctions, appelées penaltys par Google, sont très variables : dé­clas­se­ment d’une place sur les moteurs de recherche, chute de 30 rangs ou encore dis­pa­ri­tion complète de l’index. Une fois pénalisés et ré­tro­gra­dés, les sites ont de grandes dif­fi­cul­tés à re­con­qué­rir les premières pages de résultats et encore plus les premières places.

Pour les stra­té­gies de long terme, il est bon de s’en tenir aux di­rec­tives et de respecter les bonnes pratiques du ré­fé­ren­ce­ment naturel. Adopter les tech­niques de White Hat SEO et se conformer à l’ensemble des lignes de conduite ne sont toutefois pas choses aisées. Il existe donc une zone grise, que l’on appelle Grey Hat : on utilise ici le maximum de pratiques de ré­fé­ren­ce­ment à dis­po­si­tion étant donné que Google ne sanc­tionne pas sys­té­ma­ti­que­ment toutes les ten­ta­tives de créer des liens et d’améliorer son clas­se­ment. Le Grey Hat SEO est un jeu d’équi­li­briste, où l’on mise sur des méthodes qui ne sont pas for­mel­le­ment re­com­man­dables mais pour les­quelles une sanction n’est pas à craindre. Les boutiques en ligne et agences spé­cia­li­sées dans le ré­fé­ren­ce­ment naturel s’orientent dans la majeure partie des cas dans cette zone grise.

Note

Une approche durable du ré­fé­ren­ce­ment ne signifie pas renoncer à la tech­no­lo­gie moderne. Au contraire, de plus en plus d’en­tre­prises font également appel à l’analyse SEO basée sur l’IA pour optimiser leur contenu de manière efficace et en se basant sur des données. Des outils per­met­tent de classer les thèmes per­ti­nents, d’améliorer la cou­ver­ture des mots-clés et de cibler le contenu sur les in­ten­tions de recherche. Au lieu de miser sur un link­buil­ding ma­ni­pu­la­teur ou des textes sur-optimisés, les contenus in­for­ma­tifs et la valeur ajoutée pour l’uti­li­sa­teur gagnent ainsi en im­por­tance.

Aller au menu principal