Search­me­trics a publié son rapport annuel et ap­pro­fondi sur les facteurs de ré­fé­ren­ce­ment de Google, le leader des moteurs de recherche. Search­me­trics effectue cette analyse depuis 2012, toutefois, les résultats de 2016 différent de ceux qui ont été dé­cou­verts les années pré­cé­dentes. Google définit cela comme une liste d’aspects SEO à respecter et a ainsi commencé à adopter une approche plus so­phis­ti­quée en matière de ré­fé­ren­ce­ment naturel. À l’avenir, le rapport de l’étude menée com­pren­dra une analyse plus ap­pro­fon­die et divisée en plusieurs ca­té­go­ries. Ces dif­fé­rences sont liées entre autres au système d’in­tel­li­gence ar­ti­fi­cielle de Google, nommé RankBrain (lit­té­ra­le­ment, « cerveau de ré­fé­ren­ce­ment »). Ce système agit de manière bien plus flexible que les al­go­rithmes de recherche tra­di­tion­nels. C’est en juin 2016 qu’un des salariés de Google, Jeff Dean, a initié ce chan­ge­ment de mode opé­ra­toire du moteur de recherche. L’étude actuelle, nommée « Ranking factors – rebooting for relevance » présente Search­me­trics comme un catalogue réu­nis­sant les facteurs de ré­fé­ren­ce­ment prin­ci­paux des moteurs de recherche. Les résultats obtenus doivent être in­ter­pré­tés comme des analyses spé­ci­fiques liées à dif­fé­rents secteurs. L’étude de 2016, tout comme celle de l’année pré­cé­dente, s’appuie sur un ensemble de 10 000 mots-clés per­ti­nents pour les moteurs de recherche. Découvrez ci-dessous les prin­ci­paux résultats de l’étude actuelle menée par Search­me­trics.

Le contenu en guise de facteur principal de ré­fé­ren­ce­ment

Search­me­trics a renforcé son constat en ce qui concerne l’im­por­tance du contenu, au vu des toutes dernières mo­di­fi­ca­tions dans l’al­go­rithme de Google. Le contenu d’un site Web et notamment sa per­ti­nence doit donc être au centre de l’op­ti­mi­sa­tion pour les moteurs de recherche, notamment depuis 2016. En revanche, l’im­por­tance de l’op­ti­mi­sa­tion en fonction de mots-clés uniques prend du recul par rapport au contenu.

La per­ti­nence du contenu en tant que critère dé­ter­mi­nant pour le ré­fé­ren­ce­ment

Un contenu de qualité se distingue par le fait qu’il cor­res­ponde aux nouvelles attentes des uti­li­sa­teurs. Ces attentes divergent néanmoins d’une requête à l’autre. Les créateurs de contenu dans un objectif marketing font face au défi de tenter de réunir le plus de requêtes possibles dans un même texte. Dans le cadre d’une stratégie de création de contenu, les textes sont avant tout à caractère ho­lis­tique et englobent plusieurs aspects dans un même thème. En ce qui concerne les mots-clés, ils diffèrent les uns des autres mais leur sé­man­tique ap­par­tient à un même champ lexical et thé­ma­tique. Le contenu ho­lis­tique a donc pour objectif d’obtenir un bon ré­fé­ren­ce­ment naturel pour plusieurs mots-clés per­ti­nents.

Dans le cadre de l’étude de Search­me­trics, la qualité du contenu d’un texte est analysée en fonction de sa per­ti­nence par rapport aux mots-clés. C’est lié à un corpus lin­guis­tique et aux liens sé­man­tiques. Le résultat est peu sur­pre­nant :

« Les URLs avec le contenu le plus pertinent occupent les places 3 à 6 »

Le score de per­ti­nence pour les résultats de recherche suivants décroît de manière constante. La première et la deuxième position doivent être con­si­dé­rées sé­pa­ré­ment dans le cadre de cette étude. Selon Search­me­trics, ces places sont gé­né­ra­le­ment occupées par des sites Web de marques connues. Ces sites bé­né­fi­cient de facteurs comme le degré de po­pu­la­rité, la confiance des uti­li­sa­teurs et l’image de marque. C’est pourquoi leur po­si­tion­ne­ment parmi les résultats de recherche n’est pas sys­té­ma­ti­que­ment lié à la qualité et la per­ti­nence du contenu.

Le nombre de mots en moyenne augmente

Le nombre de mots en moyenne pour les pages d’at­ter­ris­sage bien ré­fé­ren­cées augmente cons­tam­ment depuis plusieurs années. Selon Search­me­trics, cela reflète une volonté de favoriser une approche ho­lis­tique, plutôt que dif­fé­rents thèmes.

« Le nombre de mots en moyenne a augmenté de 50 pourcent en 2016 »

Les prin­ci­pales dif­fé­rences relevées en ce qui concerne le nombre de mots moyens sont ob­ser­vables en comparant les contenus de pages d’at­ter­ris­sage desktop et mobiles. Selon l’étude qui a été menée, les versions desktop d’un site Web sont gé­né­ra­le­ment 30 pourcent plus longues que les versions mobiles.

Le mot-clé utilisé dans le titre perd en im­por­tance

Parmi les pro­fes­sion­nels du ré­fé­ren­ce­ment naturel, l’uti­li­sa­tion du mot-clé dans le titre est toujours in­con­tour­nable et devrait de pré­fé­rence être placé en début de phrase. Néanmoins, les résultats de l’étude de Search­me­trics dé­montrent le contraire :

« En 2016, seulement 53 pourcent des premiers 20 URLs ré­fé­ren­cés ont un titre dans lequel figure le mot-clé »

Ce chan­ge­ment s’explique par le fait que la nouvelle approche ho­lis­tique de la création de contenu est orientée vers une op­ti­mi­sa­tion en fonction de thèmes et non en fonction de mots-clés. Le système d’in­tel­li­gence ar­ti­fi­cielle de Google est depuis capable d’analyser des ensembles sé­man­tiques dans leur globalité sans être influencé par les mots-clés contenus.

De manière  com­pa­rable, ce chan­ge­ment est ob­ser­vable également en ce qui concerne les des­crip­tions et les titres. Selon Search­me­trics, encore un tiers des 20 premières pages d’at­ter­ris­sage comptent un mot-clé dans le titre principal (H1).

Les signaux des uti­li­sa­teurs

Afin de dé­ter­mi­ner si les uti­li­sa­teurs de Google sont sa­tis­faits des URLs proposés parmi les résultats de recherche, l’en­tre­prise de la Silicon Valley ne peut pas se baser uni­que­ment sur des facteurs indirects comme l’analyse sé­man­tique des contenus des sites Web. En plus du moteur de recherche, les produits de Google livrent des in­for­ma­tions dé­tail­lées sur le com­por­te­ment des in­ter­nautes, comme le na­vi­ga­teur Chrome, l’extension Analytics ou encore la régie pu­bli­ci­taire AdWords.

Pour établir si un site Web offre réel­le­ment ce qu’il propose, Google analyse les signaux des uti­li­sa­teurs, par exemple le taux de clics et le taux de rebond, tout comme le temps de visite moyen. D’autres facteurs provenant des bases de données sont également pris en compte et analysés en temps réel pour établir le ré­fé­ren­ce­ment sur le moteur de recherche. Ici aussi, l’analyse de Search­me­trics apporte une con­tri­bu­tion per­ti­nente aux con­nais­sances des ad­mi­nis­tra­teurs de sites Web et aux experts en ré­fé­ren­ce­ment naturel.

Le taux de clic moyen des éléments 1 à 3 est de l’ordre de 36 pourcent

La confiance des uti­li­sa­teurs dans l’es­ti­ma­tion de la per­ti­nence des contenus proposés par Google est élevée. C’est ce que démontre l’étude de Search­me­trics depuis 2014, dans laquelle le taux de clics (Click-Through-Rate, CTR)  des URLS les mieux ré­fé­ren­cés a été dévoilé. Les sites Web po­si­tion­nés sur la première place sont ceux qui ob­tien­nent le plus de clics. L’équipe de Search­me­trics a estimé dans ses calculs un taux de clics moyen de 44 pourcent pour les sites en première position. Ce pour­cen­tage chute à 30 pourcent dès la troisième position. 

« Le CTR moyen pour les positions 1 à 3 est estimé à 36 pourcent. 

Il est clai­re­ment ob­ser­vable que le taux de clics prend de l’im­por­tance à partir de la onzième position. La première page d’at­ter­ris­sage sur la deuxième page de résultats de recherche obtient en moyenne plus de clics que les pages d’at­ter­ris­sage figurant à la fin de la première page de résultats de recherche. Comparé à l’année 2014, le taux de clics moyen des 10 premiers URLs dans le clas­se­ment de Google est en nette aug­men­ta­tion.

Le taux de rebond parmi la première page de résultats augmente de 46 pourcent

En plus du taux de clics, la per­ti­nence d’un site Web est également évaluée à partir du taux de rebond (Bounce Rate). Ce chiffre montre combien d’uti­li­sa­teurs quittent un site Web sans consulter d’autres pages de ce même site. L’équipe de Search­me­trics res­pon­sable de l’étude a déterminé que parmi les URLs inspectés, 46 pourcent des dix premiers d’entre eux affichent un taux de rebond supérieur à ceux mesurés en 2014. L’écart le plus important est ob­ser­vable entre la position 1 et 2.

Selon les analystes, le taux de rebond n’est pas un critère de ré­fé­ren­ce­ment dé­ter­mi­nant de la per­ti­nence d’un site Web. Le fait qu’un in­ter­naute quitte un site Web sans consulter d’autres pages de ce même site peut être expliqué par exemple par le fait que l’in­ter­naute ait pu obtenir toutes les in­for­ma­tions qu’il cherchait sur cette même page qu’il a consultée. Ainsi, l’in­ter­naute n’a pas besoin de pour­suivre ses re­cherches. Ce cas de figure s’observe avant tout lorsque les in­ter­nautes ef­fec­tuent une recherche à caractère purement in­for­ma­tif.

Pour expliquer l’aug­men­ta­tion du taux de rebond moyen, l’équipe de Search­me­trics s’appuie sur l’ef­fi­ca­cité de l’al­go­rithme de Google. Grâce au nouveau système d’in­tel­li­gence ar­ti­fi­cielle, le moteur de recherche est désormais en mesure de dé­ter­mi­ner très pré­ci­sé­ment quels sont les résultats de recherche qui cor­res­pon­dent au plus près à la requête des in­ter­nautes. Par con­sé­quent, il arrive de plus en plus rarement que les in­ter­nautes aient à consulter plusieurs sites pour obtenir les in­for­ma­tions qu’ils re­cher­chaient.

Le temps de visite moyen augmente

Un des éléments les plus im­por­tants pour dé­ter­mi­ner la per­ti­nence d’un site Web repose sur le temps de visite des in­ter­nautes, c’est-à-dire le temps écoulé entre le moment où celui-ci clique sur le site et le moment où il quitte le site Web. Le Time on Site, ou temps de visite, peut être mesuré de manière très précise grâce à We­ba­na­ly­tics. Search­me­trics présente une valeur moyenne qui peut être in­ter­pré­tée de dif­fé­rentes manières.

« Le temps de visite moyen sur un site Web parmi les 10 premiers URLs ré­fé­ren­cés s’élève à 3 minutes et 10 secondes. »

En comparant cette valeur avec celle qui a été mesurée en 2014, il est possible d’observer une aug­men­ta­tion du temps de visite moyen sur les 10 premiers URLs ré­fé­ren­cés. Ce dé­ve­lop­pe­ment peut s’expliquer par le fait que les ad­mi­nis­tra­teurs de sites Web qui sou­hai­tent soigner leur ré­fé­ren­ce­ment naturel sur Google se voient con­traints de proposer un contenu de qualité s’ils veulent réussir.

Bien qu’un temps long de visite soit un in­di­ca­teur de qualité, cela ne signifie pas forcément in fine qu’un temps de visite court est synonyme de contenu de qualité moindre. Comme mis en lumière pré­cé­dem­ment, il arrive que la page d’un site Web comprenne toutes les in­for­ma­tions que l’in­ter­naute recherche et que celui-ci n’ait pas besoin de rester longtemps sur le site (par exemple si le visiteur souhaite sim­ple­ment consulter la météo ou le résultat d’un match de football)

Facteurs tech­niques et con­vi­via­lité d’uti­li­sa­tion

La création d’un contenu de qualité qui propose une réelle valeur ajoutée aux visiteurs n’est qu’un des piliers de l’op­ti­mi­sa­tion pour les moteurs de recherche. Même un site qui comprend le meilleur des contenus ne pourra pas atteindre les premières positions parmi les résultats de recherche. Car pour atteindre les premières positions, certaines con­di­tions tech­niques doivent être res­pec­tées. Les sites Web modernes doivent répondre aux critères suivants : per­for­mance, sécurité, con­vi­via­lité d’uti­li­sa­tion. En plus de respecter certains aspects tech­niques, 2016 a dessiné de grandes tendances, comme le rac­cour­cis­se­ment du temps de char­ge­ment ou encore de la taille des données. La prin­ci­pale tendance observée en 2016 parmi les critères de ré­fé­ren­ce­ment est également l’op­ti­mi­sa­tion des sites Web en version mobile. Search­me­trics souligne de plus l’im­por­tance crois­sante du cryptage sécurisé en HTTPS pour le ré­fé­ren­ce­ment naturel sur les moteurs de recherche.

HTTPS sera in­con­tour­nable à partir de 2017

Les web­mas­ters qui renoncent au cryptage des données via HTTPS ren­con­tre­ront des dif­fi­cul­tés crois­santes face à l’op­ti­mi­sa­tion naturelle de leur site Web, comme l’a annoncé Google en septembre 2016. Les sites HTTP, sur lesquels des données sensibles sont tra­vail­lées, seront indiqués clai­re­ment comme étant « non sécurisé » auprès des in­ter­nautes à partir de 2017. Il n’est pas né­ces­saire d’être devin ni expert en SEO pour anticiper l’impact d’un tel aver­tis­se­ment sur le taux de clic des visiteurs sur les sites non sécurisés. C’est pourquoi les experts cons­ta­tent une aug­men­ta­tion constante des sites Web sécurisés en HTTS. S’il n’y avait que 12 pourcent des 10 premières pages d’at­ter­ris­sage qui misaient sur HTTPS l’année pré­cé­dente, Search­me­trics a évalué ce nombre à 45 pourcent en 2016. « Presque la moitié des sites Web du top 10 utilisent désormais un cryptage HTTPS. »

L’op­ti­mi­sa­tion pour mobiles, pilier pour un bon ré­fé­ren­ce­ment naturel

Les re­cherches sur le Web ef­fec­tuées à partir d’un support mobile ne cessent d’augmenter. Selon un rapport mené par Google en 2015, il y a plus de requêtes qui ont été ef­fec­tuées sur des supports mobiles aux États-Unis et au Japon que sur des or­di­na­teurs clas­siques. L’influence que prend ce facteur en matière de ré­fé­ren­ce­ment naturel sur les moteurs de recherche est in­dé­niable depuis que l’approche « mobile first » de Google a été dévoilée en octobre 2016. Pour les web­mas­ters qui ne prennent pas encore en compte les mo­bi­nautes, ou uti­li­sa­teurs mobiles, l’approche mobile de leur site Web devrait être hissée en haut de leur agenda pour 2017. Pour favoriser l’aspect mobile friendly d’un site Web, il convient d’opter pour un design responsif ainsi qu’une pré­sen­ta­tion dynamique, entre autres.

Signaux sociaux

Tout comme l’étude de Search­me­trics l’a déjà indiqué en 2014, une forte cor­ré­la­tion a également été observée en 2016 entre un excellent ré­fé­ren­ce­ment naturel et les signaux sociaux. Il s’agit là de signaux de com­mu­ni­ca­tion comme des partages, des mentions « j’aime » et des com­men­taires sur les réseaux sociaux comme Facebook, Twitter, Pinterest ou Google+. La parallèle entre un bon ré­fé­ren­ce­ment naturel et une présence réussie sur les réseaux sociaux reste toutefois difficile à établir pour les spé­cia­listes et les analystes.

Liens-retour

La quantité de liens-retour d’un site Web reste en cor­ré­la­tion avec le ré­fé­ren­ce­ment parmi les résultats de recherche. Dans le cadre de l’op­ti­mi­sa­tion naturelle, le placement de liens perd tout de même en im­por­tance. Selon Search­me­trics, le profil de liens d’un site Web n’est plus un des critères prin­ci­paux pour dé­ter­mi­ner le ré­fé­ren­ce­ment, mais seulement un critère parmi d’autres.

Google est capable de détecter les contenus de qualité grâce aux ensembles sé­man­tiques compris dans un texte, et grâce aux signaux des uti­li­sa­teurs. Le profil de liens-retour en tant que signe de qualité prend donc moins d’im­por­tance. Si l’im­por­tance des liens décroît, il convient pour les web­mas­ters de se ques­tion­ner en quoi l’offre en matière de contenu de leurs pages d’at­ter­ris­sage peut offrir une valeur ajoutée aux visiteurs.

Il n’est pourtant pas encore à craindre que l’im­por­tance du profil de liens-retour dis­pa­raisse de l’al­go­rithme de Google, comme le con­fir­ment les résultats de l’étude de Search­me­trics. Néanmoins, le profil de liens-retour n’est plus un des piliers les plus im­por­tants de l’op­ti­mi­sa­tion naturelle.

« La cor­ré­la­tion entre les liens-retour et le ré­fé­ren­ce­ment naturel reste établie, mais perd en im­por­tance. »

Les facteurs de ré­fé­ren­ce­ment par rapport à leur po­si­tion­ne­ment

Le graphique ci-dessous dévoile la cor­ré­la­tion entre les critères de ré­fé­ren­ce­ment généraux parmi les 20 premiers URLs analysés par Search­me­trics et les évo­lu­tions observées depuis l’année pré­cé­dente. Les critères de ré­fé­ren­ce­ment pour lesquels les données ont été récoltées pour la toute première fois en 2016 sont signalés par une étoile bleue.

Cliquez ici afin de té­lé­char­ger le graphique  « Top 20 Rank Cor­re­la­tions from Google.com ».

Con­clu­sion : l’avenir de l’op­ti­mi­sa­tion pour les moteurs de recherche

L’étude menée par Search­me­trics démontre qu’il existe des pa­ral­lèles entre certains critères précis et un bon po­si­tion­ne­ment parmi les résultats de recherche. Ces critères ne peuvent néanmoins pas s’appliquer de manière spo­ra­dique à tous les sites Web. Les enjeux diffèrent entre les attentes des uti­li­sa­teurs, de l’in­tel­li­gence ar­ti­fi­cielle et en fonction des dif­fé­rentes branches. C’est pourquoi il convient d’éviter de tomber dans les gé­né­ra­li­tés en analysant divers critères de ré­fé­ren­ce­ment.

C’est pourquoi l’équipe de Search­me­trics a élaboré dif­fé­rentes études précises suite à l’analyse qui a été menée, afin que les résultats puissent cor­res­pondre aux besoins de dif­fé­rents secteurs. L’étude con­cer­nant les critères de ré­fé­ren­ce­ment, et menée sur une année entière va désormais prendre en compte des mots-clés spé­ci­fiques à certains domaines d’activités (par exemple en e-commerce, santé, finance etc..). L’étude de Search­me­trics de 2016 est donc à percevoir par les ad­mi­nis­tra­teurs de sites Web comme un guide en matière d’op­ti­mi­sa­tion naturelle réussie.

Aller au menu principal