Tout connaitre sur les algorithmes

algorithme Google

Afin de comprendre ce qu’est un algorithme pour Google, voyons d’abord ce que sont les algorithmes de manière globale. Selon Wikipedia, un algorithme se défini par : « une suite finie et non ambiguë d’instructions et d’opérations permettant de résoudre une classe de problèmes ».

En revanche, pour Google, les algorithmes sont des systèmes complexes utilisés pour récupérer les données d’une page afin de les afficher dans une requête faite par un utilisateur.

Saviez-vous que l’ordre d’affichage des résultats d’une requête sur un moteur de recherche n’est pas le fruit du hasard. Il dépend de nombreux d’algorithmes et de la requête faite par l’utilisateur. Pour Google et les autres moteurs de recherches, ce sont différents algorithmes qui décident du positionnement de votre site internet dans ses résultats.

De ce fait, si vous comprenez les différents algorithmes et que vous optimisez le contenu de votre site en conséquence, vous pourrez :

  • Améliorer la pertinence de votre site internet dans les résultats de recherches.
  • Améliorer votre visibilité.
  • Augmenter votre trafic.
  • Augmenter votre taux de conversion

Qu’est-ce qu’un algorithme pour un moteur de recherche ?

Pour un moteur de recherche, un algorithme peut être comparé à un traitement mathématique qui s’applique aux pages du web. Ce sont des formules créées par les équipes de chaque moteur de recherche afin de définir quel contenu répond le mieux à la requête de l’utilisateur. Elles permettent connaitre la pertinence de chaque contenu, mais aussi sa qualité et son ancienneté et son exclusivité.

Quels sont les éléments ciblés par les algorithmes de Google ?

Google utilise plusieurs centaines d’algorithmes différents avant d’afficher votre site internet dans un résultat de recherche. Leurs rôles sont de définir la qualité de votre contenu, mais ils jugent aussi de l’ergonomie de votre site.

Qu’est ce que les Google Updates ?

On appelle communément Google Update une mise à jour importante de l’algorithme Google qui apporte des changements importants et bouleversent significativement le classement dans les résultats de recherches. On dénombre environ 2 ou 3 Google Update majeurs par an et ces derniers font l’objet d’une communication publique de la part de Google.

En dehors de ces mouvements majeurs, Google apporte des modifications mineures tout au long de l’année à ses divers algorithmes.

Les principaux algorithmes de Google

Depuis 2010, la firme Google à jouter de nombreuses mises à jour a son fonctionnement de base fin de rendre les résultats de recherche toujours plus en adéquation avec les recherches des internautes.

L’algorithme de base de Google : le Pagerank

Le PageRank (du nom de son fondateur Larry Page) est la technologie utilisée par Google depuis sa création pour évaluer l’importance et la qualité d’une page web. Il s’agit de l’une des variables utilisées par Google pour déterminer la place qu’occupera votre site dans les pages de résultats des moteurs de recherche (SERP).

Pour faire (très) simple, il consiste à évaluer la popularité d’une page et la fiabilité de son contenu grâce au nombre de pages qui y font références.

Système d’indexation : Caffeine

Date de déploiement : juin 2010

Caffeine a permis à Google d’améliorer la vitesse d’indexation des pages de façon instantanée. Grâce à Caffeine, votre site est référencé dans les résultats bien plus rapidement qu’auparavant.

Contenus de faible qualité : Panda

Date de déploiement : février 2011

L’algorithme Panda et ses pénalités sont introduits par Google dans le but de lutter contre les sites web créés à des fins de spam. Il s’agit d’un filtre de recherche qui pénalise les sites et blogs de faible qualité. Le tout premier déploiement de Panda a généré un impact majeur, avec une modification de 12% des SERP rien aux Etats-Unis. Cet algorithme sanctionnait le site entier en cas d’anomalie.

Panda a reçu de nombreuses mises à jour pendant 10 ans afin de l’améliorer, mais Google vient de nous apprendre que Panda n’était plus utilisé de nos jours et a été remplacé par Google Coati. Ce dernier a exactement le même but, mais nous n’en savons pas plus sur son modèle de fonctionnement.

Lutte contre les excès de publicité : Top Heavy

Date de déploiement : janvier 2012

Cet algorithme n’a eu qu’un effet limité sur les sites et à permis de sanctionner les sites internets présentant trop de d’encart publicitaire.

Les réseaux de liens : Pingouin / Penguin

Date de déploiement : avril 2012

Officiellement lancé le 24 avril 2012, Google Penguin est un filtre de l’algorithme de Google visant à pénaliser les sites de mauvaise qualité. Redouté par grand nombre de’éditeurs de sites, il a bouleversé le monde du web à une époque ou la suroptimisation était de rigueur pour s’afficher dans les premiers résultats.

Après Panda, qui visait surtout le contenu des sites, Pingouin (Penguin) sanctionne les pratiques abusives de netlinking (acquisition de liens), spamdexing (fraude sur l’index des moteurs) et utilisation abusive des ancres de liens dans une optique SEO.

La sanction Google Penguin sanctionne uniquement certaines pages du site (et non sur le site entier comme le fait Google Panda). Ces pages ne sont pas supprimées de l’index, mais perdent de leur visibilité en n’étant simplement plus prises en compte et plus affichées.

Les pages suroptimisées contenant uniquement des mots clés sont donc sanctionnées : à une époque lointaine maintenant, il était à la mode de bourriner sur l’optimisation des pages d’un site en plaçant de manière très peu subtile le mot-clé principal à la fois dans l’url, dans la balise title, et dans le H1 (voire dans tous les H2 et autres sous-niveaux de titres).

Les backlinks de mauvaise qualité : tous les liens sur des ancres optimisées, sur des ancres toujours identiques, en provenance de sites sans thématique commune, depuis des sites eux-mêmes de mauvaise qualité, les liens depuis des annuaires de mauvaise qualité, ….

Luttre contre la violation des droits d’auteur et le téléchargement illégal : Pirate

Date de déploiement : août 2012

Cette mise à jour permet de ne plus afficher dans les résultats des contenus provenant de site proposant des contenus piratés (films, livres, musique, …)

Référencement du nom de domaine : Google EMD (Exact Match Domain)

Date de déploiement : septembre 2012

À cette époque, nombreux sites internet avaient en nom de domaines le mot clé sur lequel il voulait être positionné. Cet update à permis de rendre inutile cette pratique en ne tenant plus compte du nom de domaine pour le SEO.

Google Colibri

Date de déploiement : septembre 2013

Voici l’un des algorithmes les plus importants que Google ait créé. Il s’agit de la première étape de la transformation de Google de moteur de recherche à moteur de réponse. En effet, cet algorithme à permis à Google d’afficher des résultats à une requête sous forme de question, de mieux comprendre les internautes et leurs intentions. Colibri est en effet le seul algorithme capable de comprendre une requête de plusieurs mots, dans sa globalité. Auparavant, chaque mot était traité et analysé individuellement

Des résultats coordonnés avec la localisation : Pigeon

Date de déploiement : juillet 2014

Grâce à Pigeon, les recherches effectuées privilégient les résultats de proximité. Ainsi, les utilisateurs peuvent connaître les solutions proches de leur domicile. Il s’applique aussi bien sur le moteur de recherche que sur Google Maps. Cet algorithme a été un événement important dans le référencement local.

Optimisation mobile : Mobile Friendly

Date de déploiement : avril 2015

Il s’agit d’un autre algorithme ayant eu un impact considérable sur le SEO des pages web. Avec la démocratisation de l’utilisation des smartphones et tablettes, la firme a déployé le Mobile Friendly.

Il vérifie que le site web soit également compatible avec les appareils mobiles, et tient compte de cet élément pour le résultat du référencement naturel. Ces critères se sont renforcés avec l’introduction de l’index mobile first.

Pour une bonne qualité de contenus : Google Phantom

Date de déploiement : mai 2015

Sa particularité réside dans le fait qu’il a été déployé en secret par Google. Beaucoup de webmaster s’étant rendu compte de changements majeurs dans les SERPs, ils se sont tournés vers les équipes qualité de Google. Ils nient tout d’abord, puis confirment au bout de quelques semaines avoir déployé une mise à jour. Baptisée par la communauté web Phantom, elle est renommée « Quality » par Google. Sa mission principale est, à l’identique de Panda, d’améliorer la qualité des publications des sites web et de lutter contre le spam en pénalisant les sites porteurs de contenus médiocre.

En complément de l’algorithme Hummingbird : Rankbrain

Date de déploiement : octobre 2015

Avec Rankbrain, Google avance vers le déploiement de l’intelligence artificielle. Il a la particularité de pouvoir comprendre le sens de plusieurs requêtes formulées de façon différente.

Les réponses apportées à deux recherches rédigées différemment sont donc au final très similaires. Il complète ou prolonge les capacités propres à Colibri. Aujourd’hui, Google considère que Rankbrain est dans le top 3 des facteurs de référencement les plus importants (en complément des liens et de la qualité des contenus).

Le fonctionnement de Rankbrain est assez particulier. Il s’effectue principalement hors ligne. Au fil du temps, Google l’alimente avec des fichiers de recherches anciennes. De cette façon, cet outil parvient à faire des prédictions. Une fois celles-ci dûment testées, elles sont alors intégrées pour une application dans le moteur de recherche.

Association avec la publicité : Google Publicité interstitielle intrusive

Déploiement : janvier 2017

Google sanctionne les sites présentant des bannières publicitaires interstitielle ou des pop-up génant la lecture du contenu pour les utilisateurs

Surveillance globale de la qualité : Google Fred

Déploiement : mars 2017

Si il existe bien, son but précis reste un réel mystère. Il serait une combinaison sophistiquée du Panda et du Pingouin, pouvant possiblement lutter contre les sites de faible qualité, sans contenu optimisé ou créés avec le seul but de faire de la monétisation.

Google BERT

Déploiement : octobre 2019

Il s’agit d’un algorithme de traitement du langage naturel à base d’IA (machine learning) visant à mieux comprendre les contenus (pages indexées) ainsi que certains types de requêtes. BERT est particulièrement efficace pour les longues requêtes, grâce à une analyse bidirectionnelle des liaisons entre les mots (le rôle des prépositions est mieux pris en compte).

Google Helpful Content

Déploiement : 2022

Cet algorithme a pour vocation à lutter contre le contenu à faible valeur ajouté. Comprenez par là, et surtout, lutter contre le contenu généré par IA, très en vogue en ce moment

Pour en savoir plus sur cet update, consultez notre article dédié à cette mise à jour sur notre site.