Dans un monde SEO en perpétuel changements, 2020 s’annonce riche en nouveautés Google. Le point sur les pistes d’amélioration pour bien référencer votre site cette année.

Le titre est accrocheur certes mais les mises à jour de Google effectuées ces dernières années nous laissent à penser que nous sommes entrain de vivre un changement de paradigme dans l’univers SEO !

Pour les habitués de cette pratique maintenant devenue une industrie à part entière qui génère quelques 80 milliards de dollars US aux Etats-Unis seulement, vous savez qu’elle est en perpétuel changement et que le mot d’ordre est de suivre la tendance des moteurs de recherche.


Source : searchengineland.com

Dans cette optique, je vais vous relater les tournants majeurs du moteur Google qui s’accapare plus de 90% des parts de marché en France et continue de dominer le peloton de tête malgré l’apparition de joueurs comme Qwant, DuckDuckGo et Ecosia. Il faut dire que Google a une telle avance au niveau du fonctionnement de son algorithme, qui désormais repose sur la machine plus que sur l’homme, que je doute fort qu’il puisse être détrôné de sa position dominante dans la nouvelle décennie.


Source : Statcounter.com

Pour entrer dans le vif du sujet, j’aimerais commencer depuis la sortie du Knowledge graph en 2012 pour incorporer Hummingbird en 2013 puis RankBrain en 2016. Ceci n’a fait que consolider Google dans sa stratégie de compréhension des entités web et des concepts qui les entourent. En 2018, nous avons vécu une mise à jour majeure nommée Medic avant que Google réitère l’exercice une dizaine de fois depuis avec les mises à jour Core Algorithm Update en confirmant que E-A-T fait désormais partie de sa cuisine interne, et nous annonce par la suite le déploiement de BERT, sa plus grosse sortie à ce jour :

Avec les dernières avancées de notre équipe de recherche en science de la compréhension du langage – rendues possibles par l’apprentissage automatique – nous améliorons considérablement la façon dont nous comprenons les requêtes, ce qui représente le plus grand bond en avant au cours des cinq dernières années, et l’un des plus grands sauts en avant dans l’histoire de la recherche. 

Source : Pandu Nayak

Pour bien comprendre ce qui nous attend en 2020 avec Google, nous sommes obligés de regarder dans le rétroviseur et analyser toutes ces améliorations pour en tirer une ligne directrice en matière de SEO.

Google Knowledge Graph 2012

Le jeudi 17 Mai 2012, c’était presque comme le 11 Septembre après l’annonce publique concernant le lancement officiel en US du Knowledge graph de Google. En fait, Google a organisé son propre Bombing tellement décrié par le moteur quand ce sont les blogueurs qui le pratiquent pour gagner en visibilité sur un sujet. En gros, Google expliquait qu’il s’attaquait aux entités web et pas aux chaîne de caractères.

Voici un schéma de fonctionnement que j’avais produit à l’époque mais qui reste d’actualité :

Google collecte les données où qu’elles soient sur le web,

  1. Il déploie son « Latent Semantic Indexing » pour clustériser les contenus de manière intelligente,

  2. Il vérifie les relations via les liens entre sites et pages web (Link graph),

  3. Il pioche dans les médias sociaux là où les langues se délient (social graph),

  4. Sur les sites, il collecte les données structurées grâce aux tags sémantiques (Microformats, RDFa, Schema),

  5. Il va puiser dans l’inventaire des bases de données ouvertes comme Freebase, Wikipedia, Imdb… pour trouver des connexions,

  6. Bien sûr Google Maps va donner un contexte local s’il s’agit d’un business ayant pignon sur rue

  7. Il constitue des entités Web qu’il va mettre au stress test via les visiteurs,

  8. Il enregistre la réaction des utilisateurs aux suggestions et leur comportement,

  9. Il met à jour ses entités web et repart pour un nouveau cycle d’affinage (Knowledge graph)

Regardez le diagramme suivant comme il est simple de réussir son référencement à l’époque :


Source : dejanmarketing.com

Bien entendu, je ne savais pas ce que ces entités web allaient peser dans l’algorithme et encore moins comment Google donnerait le poids à chaque signal via les graphes. Mais une chose est sûre, on parle désormais d’autorité 2.0 au lieu de celle mentionnée dans les anales SEO d’avant E-A-T. Pour les liens sociaux on sait maintenant que Google repose sur les majeurs : Linkedin, Facebook et Twitter !

Google Hummingbird 2013

« Hummingbird » est le nom de la nouvelle plateforme du moteur recherche que Google utilise depuis septembre 2013, le nom vient du concept « précis et rapide » et est conçu pour mieux se concentrer sur le sens derrière les mots. Hummingbird accorde plus d’attention à chaque mot dans une requête, en s’assurant que la requête entière – la phrase entière ou la conversation ou le sens – est prise en compte, plutôt que des mots pris individuellement. Le but est que les pages correspondant au sens soient plus efficaces que les pages contenant à peine quelques mots faisant partie de la requête.

Google Hummingbird est conçu pour appliquer la technologie de la sémantique à des milliards de pages à travers le Web, en plus des faits du Knowledge Graph, ce qui va ramener de meilleurs résultats.

Cette image qui a fait le tour des sites web des référenceurs mentionne l’ajout de fonctionnalités d’intelligence en 2013 ce qui nous place dans l’ère de l’apprentissage machine. Il s’agit d’un très gros changement technique pour les ingénieurs de Google: c’est comme si on mettait le tout à plat et on repartait sur de nouvelles bases.  En effet, les résultats de Google n’ont pas tardé à changer et cela impacta 90% de la recherche mondiale :

Comment Google Hummingbird a-t-il influencé le référencement? L’impact le plus clair de la mise à jour de Hummingbird sur le référencement a été une diminution de l’attention portée aux mots clés. Il n’est plus aussi important d’utiliser les mots clés dans votre contenu correspondant directement aux mots utilisés dans la requête de la recherche visée. 

Source : brightedge.com

Google RankBrain 2016

Comme son nom l’indique, Google devient cerveau. Mais RankBrain, par opposition à Hummingbird, n’est qu’une composante de l’algorithme de Google, basée sur l’intelligence artificielle et les réseaux de neurones. Il permettra de mieux comprendre l’intention de recherche (une question par exemple lorsque celle-ci est exprimée en langage naturel). Il sert notamment à identifier les requêtes jamais demandées auparavant et contribue à préparer l’avenir du moteur. Bien que plus orienté vers l’internaute pour comprendre son intention de recherche, il améliorera 15% des résultats environ puisque Google a annoncé que ce chiffre correspond aux requêtes jamais vues sur le moteur sur une base quotidienne (Source : Google).

Mais cette alliance entre Hummingbird qui est capable de classer les contenus en utilisant la sémantique, plutôt que la présence des mots clés sur les pages, et RankBrain capable de comprendre l’intention de la recherche plutôt que les mots tapés dans la barre de Google, va donner naissance à une révolution extraordinaire en SEO : résultats enrichis et recherche vocale.

L’année qui suivit, comme rapporté sur mon blogpost « SEO données structurées et rich snippets par google » suite à mon passage au SMX de NY 2017, on ne parlait plus que de « Smart Google » ou « Google Intelligent ». En effet, en 2017 on a vu l’explosion des résultats enrichis et des positions zéro ainsi que des PAA (autres questions posées) :

Source : perficientdigital.com

Finalement on aura compris qu’avec les 2 composantes, Google est capable de s’immiscer dans la voix du langage naturel et de répondre dans les SERPs directement ou par la voix si requis.

E-A-T et les Core Algorithme Updates

Les acronymes qui nous intéressent sont au nombre de 2 : E-AT et YMYL

  • E-A-T : E-A-T signifie Expertise, autorité et confiance – trois facteurs que Google utilise pour mesurer le degré de confiance qu’il doit accorder à une marque ou à un site web. Google souhaite offrir à ses clients (utilisateurs de moteurs de recherche) la meilleure expérience possible. Il souhaite uniquement promouvoir les sites web auxquels il fait entièrement confiance.
  • YMYL: Your Money or Your Life. Il s’agit principalement de sites de santé, finances, droit, etc.
    Le type d’informations de ce genre de sites, si elle est présentée de manière inexacte, mensongère ou trompeuse, pourrait avoir une incidence directe sur le bonheur, la santé, la sécurité ou la stabilité financière du lecteur. Autrement dit, les enjeux sont importants pour ce type de contenu.

Source : search quality evaluator guidelines

Alors si vous regardez le timeline ci-dessous vous allez constater que Google a mis en place une armada de mises à jour où il est en perpétuel ajustement de son algorithme pour mesure le E-A-T du site web :

Il s’agit d’un site spécialisé en auto donc à priori loin des YMYL et pourtant Google lui fait goûter à la sauce E-A-T tantôt en le favorisant tantôt en le dévaluant mais l’important est que ces mises à jour sont de nature sévère et que Google revoit ses facteurs de classement pour 2020 tel que mentionné en introduction.

Mais pourquoi maintenant et de manière si agressive alors qu’il y a des sites d’envergure qui en font les frais ? je pense que Google va continuer dans cette voix de produire du zéro click (pas de clic sur les résultats de recherche) et de se substituer aux éditeurs en surfaçant les contenus et en extrayant du contenu structuré là où il ne l’est point ! Même pour les news, Google vient d’annoncer qu’il va se passer désormais de la validation via Google News Publisher pour inclure TOUS les résultats du web. Cette notion de zéro click est importante pour nous autres référenceurs puisque Google nous prive de part importante de trafic qui nous revenait. Voici ce que ça donne pour le mobile :


Source : Sparktoro.com

Pour produire les résultats en son nom, via les résultats enrichis ou la recherche vocale, Google veut avoir une confiance absolue dans le contenu publié et il va tout mettre en œuvre pour se prémunir.

Google Bert 2019

Google se passera bientôt des mots clés! je pense que ça vaut le coup de s’y attarder car de l’aveu de Google ça serait la plus grosse révolution dans la recherche depuis le lancement du moteur. Pas convaincu ? lisez plutôt le billet de Google là-dessus : Understanding searches better than ever before.

Source : Google

À mon avis, Bert est l’aboutissement de toutes les évolutions vues ci-dessus depuis le Knowledge graph. Google est désormais capable de parler le langage naturel et de saisir le sens de la requête comme un humain mais avec la puissance d’une machine pour chercher dans sa base d’index avec intelligence la meilleure réponse, hormis le facteur de présence des mots clés sur la page de contenu.

Oui, il est judicieux de faire la recherche des mots clés, de les placer stratégiquement sur la copie, mots clés primaires, secondaires et tertiaires mais aussi les mots clés adjacents (comme carburent pour voiture) tant et aussi longtemps que le contenu est pertinent, qu’il répond à la recherche de l’internaute et qu’il bénéficie d’un score E-A-T du domaine ou de l’auteur qui va le propulser en tête de liste. Pour plus de détails concernant Bert, je vous invite à lire mon billet : Tendances SEO 2020

Conclusion pour le SEO en 2020 et plus

Nous avons vu que le SEO change au rythme des moteurs dont le plus important est sans contexte Google. Celui-ci a mis des gardes-fous pour entrer dans l’univers de la bataille SEO pour les liens bleus dans les résultats de recherche (blue links) mais aussi les résultats enrichis qui vont générer du zéro click. Nous devons donc travailler le développement de la visibilité de la marque en premier comme rempart contre ce fléau, notamment en mettant le nom du domaine partout où c’est possible (extrait, image, icône et autres), mais aussi plancher sur la longue traîne où Google pourrait avoir des failles pour répondre en tant qu’éditeur mais aussi pour les mots clés important travailler notre score E-A-T.

La pyramide SEO n’a pas changé, toujours une plateforme techniquement solide à toute épreuve avec des contenus de qualité et bien sûr qui amasse des backlinks d’autorité 2.0 et des partages sur les médias sociaux et autres blogs. Pour illustrer l’autorité 2.0 voici une image qui en dit long :

Je pense que côté rédactionnel nous aurons droit à une nouvelle vague de copywriters qui vont rejoindre les résultats enrichis mais pas seulement pour donner un sens sémantique à un contenu qui surpasse désormais la simple incorporation des mots clés comme ce fût le cas jusqu’à présent.