pastille petit - logos - tao sense - 2018

SEO: Comprendre les algorithmes Google

Marre de ne rien comprendre au SEO et de toujours voir son site web ou vos articles de blog en dernière position des résultats de recherche? Grâce à cet article certains algorithmes de Google les plus connus n’auront plus aucun secret pour vous !

En 2018 le SEO doit être au coeur de votre stratégie pour survivre sur le web. Le fait d’apparaître sur la première page n’est pas du au hasard. Pour vous aider à augmenter votre notoriété sur le web, nous vous dévoilons 13 algorithmes de Google les plus célèbres. Sachant qu’il en existe d’autres mais ce sont des informations très bien gardées par le moteur de recherche. Avec cet échantillon vous pouvez quand même avoir un aperçu du SEO. Vous apprendrez également des informations sur les mises à jours et leurs impacts (positifs ou négatifs) sur votre référencement.

Caffeine 

Lancé en 2010, Caffeine est le résultat d’un constat fait par Google sur les comportements des internautes. Ils souhaitent avoir accès aux dernières nouvelles. Quant aux éditeurs, ils veulent que leurs publications soient indexées dès leur sortie. En prenant en compte ces deux facteurs, Google propose 50% de contenus plus récents dans les résultats de recherche par rapport à l’ancien. Avant cela le géant américain devait d’abord extraire, analyser et comprendre son contenu pour ensuite indexer les pages. Un procédé fastidieux qui 

Panda

Déployé en 2011, l’algorithme Panda est un filtre « de nettoyage » qui combat les contenus de mauvaise qualité. Mis à jour régulièrement, il permet de faire le ménage sur les résultats du moteur de recherche en punissant le référencement des sites web qui ont un faible contenu. Si votre site a subit une pénalité, ne vous inquiétez pas les mises à jours régulières permettent de récupérer un bon référencement si vous avez amélioré votre contenu. Si au contraire vous n’avez rien fait, votre site sera encore plus handicapé car il n’aura pas respecté les directives de Google

Son impact n’est plus à prouver. Le jour de son lancement, Panda a altéré 12% des SERP aux Etats-Unis. En janvier 2016, le moteur de recherche américain a annoncé que cet algorithme est en permanence pris en compte pour classer les sites web dans les pages de résultats de recherche.

Top Heavy – Excès de publicité 

Lancé en 2012, il sert à pénaliser le référencement des sites qui sont surchargés en publicités. Mais cet algorithme a un faible impact (environ 1%) sur leurs classement dans les résultats de recherche.

Penguin – Pingouin 

Cet algorithme a suscité de nombreuses polémiques sur la toile depuis son lancement en 2012. C’est un filtre de recherche qui pénalise le référencement des sites internet qui n’obéissent pas aux directives de Google. Cela comprend les créations, achats ou les réseaux de liens. Pour ne plus être handicapé par Pingouin, les sites web doivent être nettoyés des liens litigeieux pour récupérer le référencement d’origine lorsque la prochaine mise à jour serait lancée. Cependant il faut compter plusieurs mois, voire des années pour s’échapper des pénalités de référencement du moteur de recherche.

Pour le lancement de la mise à jour 4.0, Google annonce que celle-ci serait la dernière. Aujourd’hui c’est un algorithme qui fonctionne en temps réel, à l’image de Panda. Une bonne nouvelle pour les webmasters qui n’auront plus à patienter jusqu’à la prochaine mise à jour pour retrouver un bon référencement.

Pirate

Le but de l’algorithme Pirate est de supprimer les sites ayant subi des signalements pour violation des droits d’auteurs dans les pages de résultats de recherche. Les requêtes sont envoyées à travers le système DMCA de Google. 

Il est lui aussi mis à jour fréquemment pour faire disparaître des sites web de téléchargement illégal (films, séries, musiques …)

Exact Match Domain (EMD) – Correspondance exacte au nom de domaine

Depuis septembre 2012, cet algorithme permet de ne pas référencé des sites avec un contenu faible parce que leur nom de domaine répond à une requête précise et très recherchée par les internautes. Par exemple lorsqu’on prend comme nom de domaine « www.avocat-paris-pas-cher » on était pratiquement certain d’être sur la première page de résultat pour la recherche « avocat paris pas cher ». Parfois le contenu n’était pas approprié au nom du domaine, d’où la création de cet algorithme pour éviter ce genre d’exemple.

Payday 

Créer pour perfectionner les pages de recherche, Payday supprime les résultats pour des contenus semblable au spam (site pornographique, contrefaçon, jeux en ligne …)

Hummingbird – Colibri

C’est une des références de Google ! Cet algorithme, déployé en 2013, a un impact important par rapport à la formulation des recherches. Elles deviennent plus précises et plus rapides. Concrètement le moteur de recherche peut désormais comprendre l’intégralité d’une phrase sans tenir compte d’un ou plusieurs mots clés. Ainsi les internautes ont pu obtenir des résultats beaucoup plus précis. Par exemple quand on tape « où se trouve la Gare de Lyon », le moteur de recherche va nous afficher sur la map où elle se situe.

Pigeon

D’abord lancé en 2014 aux États-Unis puis dans le monde entier en 2015, l’algorithme Pigeon cible localement les résultats de recherche pour donner des solutions plus précises aux démarches des internautes. Il a été bénéfique pour les entreprises locales comme les restaurants, bars, hôtels …

Mobile Friendly – CompatibilitĂ© mobile

C’est un algorithme qui favorise le référencement (depuis 2015) des sites internet qui tiennent compte du « responsive design ». Autrement dit ceux qui s’adaptent au format mobile. Malgré tout un site pouvait avoir globalement un bon référencement même si une partie de ses pages n’étaient pas adaptées pour les formats mobiles.

Rankbrain

Rankbrain, lancé au début de l’année 2015, fait en réalité partie de l’algorithme de recherche Hummingbird. 

Rankbrain est assez particulier et mystérieux car il s’agirait d’une intelligence artificielle qui serait capable de comprendre le sens de requêtes similaires, mais formulées différemment. 

Par exemple, cette intelligence artificielle pourrait comprendre au fil de son apprentissage, que les requêtes « Barrack » et « Mari de Michelle Obama » doivent apporter une réponse similaire qui est « Barrack Obama ». 

Dans la prolongation de Hummingbird, Rankbrain a pour vocation d’interpréter et de comprendre les recherches les plus abstraites des internautes. Plus important encore, Google a affirmé que Rankbrain faisait partie des trois facteurs de référencement les plus importants (avec la qualité du contenu et les liens). 

L’apprentissage de Rankrain est appliqué sur toutes les recherches mais il se fait hors-ligne : Google l’alimente avec des fichiers de recherches historiques afin qu’il apprenne à faire des prédictions. Ces prédictions sont ensuite testées puis appliquées si elles s’avèrent être correctes. 

Quality ou Phantom 

On sait très peu de chose sur cet algorithme car Google n’a donné aucune information précise sur son rôle. En mai 2015, les webmasters remarquent des changements dans les SERPs. Suite à cela ils ont interpellé des membres de l’équipe du moteur de recherche sur Twitter. Leur réponse? Aucune mise à jour a annoncé. Les webmasters ont donc décidés de donner le nom « Phantom » à cette mise à jour à cause de l’absence de renseignements tout en constatant des modifications.

Des semaines plus tard, Google avoue avoir lancé une mise à jour. Son but est de veiller sur la qualité des sites web. Phantom est devenu Quality mais on ne sait toujours pas quelles différences y a t-il entre Quality et Panda.

Google double la longueur des descriptions

Fin 2017, Google augmente la limite dans les descriptions des résultats à 320 caractères contre 160 auparavant. Il favorise donc des phrases complètes ainsi que des descriptions ayant assez d’informations pour que les lecteurs aient des éléments de contexte. Il se peut qu’il ne tienne pas en compte la balise méta-description. Google va donc couper ou compléter certaines descriptions.