Comprendre les algorithmes de Google pour le SEO et arriver au top des résultats de recherches !

par | Fév 2, 2022 | 0 commentaires

Suivez nous sur les réseaux pour plus d’articles et de conseils

Pour beaucoup, les algorithmes sont des choses immatérielles et abstraites qui servent souvent de prétexte pour ne pas avoir à expliquer certaines choses au demeurant inexplicables. Mais il n’en est rien, les algorithmes sont “simplement” des cadres qui servent à créer des conditions de réalisation d’une tâche en analysant ce qui rentre, puis en appliquant les instructions pour lesquelles il a été créé, pour enfin en sortir un résultat correspondant aux attentes de son créateur.

Les algorithmes Google, de quoi s’agit-il et comment fonctionnent-ils ? 

Bon, pour commencer, on ne va pas vous mentir, il n’y a pas 1 algorithme Google, mais 20.

Les algorithmes de Google ne dérogent pas à la règle des algorithmes classiques, ils réalisent tous les trois mêmes tâches natives que Google leurs demandent. A savoir l’analyse des entrées, la vérification des normes et la production d’un résultat.

Dans le cadre d’un moteur de recherche, les entrées sont les sites et leurs données, la vérification correspond aux divers critères que Google regarde pour indexer, et enfin le résultat correspond à votre place dans l’indexation.

Ci-dessous la liste des principaux algorithmes mis en place par Google par ordre chronologique  : 

  • Caffeine : Permet l’indexation d’une page directement après l’avoir crawlé. Du contenu “frais” remonte ainsi beaucoup plus dans les résultats de recherches. 
  • Panda : Analyse la pertinence et la qualité des contenus d’un site, cet algorithme est donc une des clés de voûte de votre référencement. Il favorise, mais peut aussi pénaliser, l’indexation d’un site en fonction de la qualité de son contenu. 
  • Top Heavy : Analyse l’affichage abusif d’espaces publicitaires sur un site, un site doit rester une source de contenu et non pas simplement un page complète de réclame.
  • Penguin : Algorithme majeur dans la prise en compte de votre référencement car celui-ci analyse les backlinks et s’assure qu’une stratégie de “bourrage” de liens externes soit mise en place. Google veut être certain d’attribuer son score de confiance à des sites qui le méritent véritablement.
  • Pirate : Comme son nom l’indique, cet algorithme vise à supprimer des résultats de recherches les contenus piratés.
  • EMD (Exact Match Domain) : Cet algorithme sert à faire en sorte de s’assurer que la première place soit bien occupée par un site qui le mérite et non pas un site ayant un nom de domaine correspondant aux mots-clés de la requête. Le but est de favoriser les sites qui apporteront la meilleure réponse à la requête formulée par le Googlenaute.  
  • PayDay : Ici Google a cherché à limiter l’apparition de pages types spam et contenus adultes dans les tops des résultats de recherches, et ce, toujours dans un but d’apporter la meilleure réponse possible aux internautes qui sollicitent le moteur de recherche. 
  • Hummingbird : Fini l’analyse textuelle, Hummingbird lance les prémices des réponses précises aux recherches longues traînes. Les mots-clés ne sont plus simplement analysés tels quels, ils sont dorénavant contextualisés avec la phrase entière.
  • Pigeon : Ici, Google a modifié les priorités dans les réponses aux requêtes en favorisant, quand cela était justifié, les résultats avec des solutions locales. Les cafés, bars et autres commerces locaux ont donc été mis en avant pour les requêtes locales.
  • Mobile Friendly : Google à déployé avec cet algorithme la notion de Mobile First pour favoriser les sites permettant une meilleure expérience de navigation sur mobile.
  • Rank Brain : Algorithme basé sur un principe de machine learning, Rank Brain vient épauler Hummingbird (cité plus haut) pour associer des requêtes formulées différemment à une même réponse. Par exemple, “Aston” et “voiture de James Bond” donnent un résultat de recherche similaire, à savoir : “Aston Martin”.  
  • Quality ou Phantom : Nouvel algorithme ou simple mise à jour de Panda, Quality ou Phantom est une part d’ombre dans le maillage des critères de référencement de Google. La seule chose que l’on sait est qu’il agit sur l’analyse de la qualité des contenus.
  • MàJ Meta Descriptions : Sans être un algorithme, cette mise à jour à simplement permis de passer le volume de texte des méta descriptions de 160 à 320 caractères permettant ainsi d’en dire plus aux visiteurs qui regardent les résultats de recherches. La méta description incite plus au clic qu’elle n’agit véritablement sur le bon référencement de vos pages. 
  • MàJ Core Update (x4) : Les Core Updates concernent des mises à jour de l’algorithme principal du moteur de recherche et induisent de nouveaux critères pour maximiser son référencement, à savoir : le choix de la thématique de votre site par rapport aux mots-clés positionnés, le choix du HTTPS plutôt que HTTP, les performances de navigation globales, l’UX et enfin l’architecture du site (le balisage). 
  • Site Diversity Update : Il s’agit ici aussi d’une mise à jour des Core Updates.
  • Bert : Cette mise à jour du moteur de recherche fait directement écho avec Hummingbird et analyse toujours mieux les requêtes sous forme de phrases complètes. L’objectif, répondre encore plus efficacement aux requêtes vocales posées aux commandes vocales de type Siri ou Alexa.  
  • Web Core Vitals : Chef d’œuvre de Google et casse-tête des professionnels du SEO, cette nouvelle mise à jour est les prémices d’une nouvelle interprétation des sites internets. Il ne s’agira plus simplement d’aligner les mots-clés sur votre site et d’avoir un bon balisage, ici l’UX sera une fois de plus le facteur de différenciation de votre site. Vos pages devront être rapides, adaptées à une bonne navigation, mais elles devront surtout répondre à l’intention de recherche. Si la requête sur laquelle vous vous positionnez est informationnelle, vous devrez adapter votre contenu en conséquence pour maximiser vos chances d’atteindre un top3. Idem, si la requête est commerciale ou encore transactionnelle.

Pourquoi il est important de suivre les algorithmes de Google pour le SEO ?

Google passe son temps à effectuer des changements dans son algorithme. On considère qu’il s’est opéré plus d’un changement par jour durant l’année 2021, et on en voit l’impact sur les performances des SERP (pages de résultats de recherche).

Les référenceurs sont là pour contrôler et réaliser une veille sur ces changements algorithmique. Les mises à jour sont en général classées en 2 catégories :

  • Les mises à jour importantes, qu’on appelle aussi “core Update”
  • Les mises à jour mineures, plus fréquentes mais moins impactantes au niveau du SEO des sites. 

Fort heureusement, vous avez le temps de vous préparer. Car si les mises à jour “core update” de l’algorithme sont souvent importante à anticiper, le déploiement de celles-ci ne se fait pas du jour au lendemain. 

Pour prendre un exemple, une des dernières grosses mises à jour en date est celle des “core web vitals” dont le déploiement a été progressif entre l’été 2021 et l’été 2022.

Que faut-il prendre en compte pour l’optimisation de son SEO ? 

Les algorithmes de Google sont à prendre en compte au même titre qu’un cahier des charges. 

En effet, les différents critères sont simplement et clairement listés pour que vous puissiez aider Google à vous aider.

Si l’on devait choisir les principaux critères à prendre en compte dans une stratégie de maximisation de votre référencement naturel, d’après nos observations en tant que professionnels du milieu, il faut un savant mélange entre tous ces critères.

Comment bien choisir ses mots-clés ?

L’erreur souvent commise est de penser que le volume est une règle absolue. Une bonne stratégie de mots-clés bien pensée, et bien utilisée est souvent, selon nos observations, plus efficace qu’un “bourrage” sur une page saturée. Il vaut parfois mieux aller chercher de petits mots-clés en plus grand nombre et facilement accessibles qui sont, qui plus est, délaissés par la concurrence, que d’aller se heurter aux gros domaines avec des années de stratégie SEO d’avance.

Quand votre stratégie n’est pas une conquête globale de la France, vous pouvez tout aussi bien choisir de vous positionner principalement sur une stratégie de référencement local. Pour ce faire, le simple choix de mots-clés associés à une géolocalisation fera l’affaire. 

Alors certes, vous n’aurez pas un choix de mots-clés phénoménal avec des volumes de recherches élevés, mais allié à une fiche GMB (Google My Business) complète et bien remplie, votre visibilité à l’échelle locale sera très rapide et efficace. 

La thématique : comment bien définir et adapter sa thématique ?

Le positionnement sur une thématique adaptée est crucial pour qui veut monter rapidement et truster la première page, voire un top 3. Nous observons régulièrement des pages avec moins de mots-clés se positionner en 1ère position devant des pages concurrentes présentant plus de mots-clés (parfois 10 fois plus !) pour une “simple” question de thématique.

La thématique d’une page est, selon de nombreux experts, beaucoup plus impactée par les liens externes que par le champ lexical interne de la page. Le netlinking, ou la publication d’articles possédant un lien pointant vers votre site, est donc un bon levier pour faire varier votre thématique.

Pour voir votre thématique, vous pouvez utiliser l’outil MajesticSEO qui vous donnera le TTF (Topical Trust Flow).

Google ne donne pas sa confiance à n’importe quels sites, boostez votre Trust Flow et vous serez récompensé !

La thématique s’inscrit dans le processus général de confiance accordée par Google dans votre capacité à répondre correctement à la requête d’un internaute.

Elle est donc à associer à un bon score de confiance ou autrement appelé Trust Flow. Ce score s’obtient, lui aussi, grâce au netlinking.

Google se comportera comme un être social, il ne fera confiance qu’aux “amis de ses amis”. Ainsi, si vous publiez un article sur un blog qui possède une bonne thématique et un Trust Flow supérieur au vôtre, il suffit d’un lien en Do Follow (pour indiquer à Google de faire le lien). Ce lien fonctionnera exactement comme une recommandation et vous permettra de bénéficier d’un surcroît de confiance de la part de Google ainsi que d’une indication supplémentaire de votre thématique.

Certaines théories poussent à croire qu’un bon Trust Flow aide à augmenter plus rapidement son référencement et donc arriver plus vite sur les premières pages. 

Intention de recherche : adaptez vos pages en fonction du besoin de vos clients. 

L’intention de recherche est le dernier critère créé par Google. Votre site se doit de répondre correctement à la question que votre visiteur se pose. Si le client demande des informations sur un produit, pourquoi lui pousser une page de catalogue dont l’objectif premier est la conversion ? Dans la vraie vie, face à un vendeur, un client demande : “Comment est fabriquée cette chaussure ?” Pensez-vous que le vendeur répondra : “Cette chaussure est disponible pour 389,99€” ? Ou répondra-t-il : “Cette chaussure est entièrement faite en cuire et faite à la main en Italie.” ? La réponse est évidemment la seconde. Google a donc décidé que cette intention, sous-jacente à une requête, devait être traitée correctement pour que le visiteur puisse avoir la qualité de réponse à laquelle s’attend toute personne dans un échange IRL (In Real Life).

La considération technique des algorithmes : clarté et accessibilité

Enfin, le dernier pan de votre stratégie à prendre en compte pour plaire aux algorithmes Google est l’aspect technique pur. Cette partie est complexe car relativement imperceptible, mais Google nous assure à grands coups de Tweets que les performances et l’UX de votre site sont bel et bien impactant dans votre référencement.

L’accessibilité est la clé. Google considère qu’un site performant est un site qui est accessible sur mobile et qui s’affiche parfaitement et rapidement, et ce, même avec une puissance de données mobiles faible. Pour ce faire, l’outil PageSpeed Insight de Google vous guidera vers la performance en analysant votre site et en remontant les critères non respectés attendus par les algorithmes. On y parle de poids d’images, de capacité à afficher rapidement votre contenu le plus lourd, de prise en considération des ressources java, bref, Google vous dit tout. Ou presque.

La technique est aussi au service des GoogleBots. Google ne vous dira pas pourquoi votre site met du temps à indexer une nouvelle page. Il ne vous dira pas non plus que vous pouvez l’inciter à envoyer un GoogleBot pour analyser un contenu nouvellement publié sur votre site.

La technique est aussi au service de ce que l’on appelle le Budget Crawl (le temps alloué par Google à l’analyse de votre site avec ses GoogleBots). 

C’est là que tout converge. L’aspect technique à bien travailler en plus des performances est votre capacité à rendre lisible votre site pour Google, et cela passe principalement par votre balisage.

On parle ici du balisage hiérarchique Hn, qui donne les premières indications de contenu à Google et dans lesquelles il faut impérativement placer vos mots-clés les plus importants. Mais attention, il faut, comme le nom l’indique, respecter la hiérarchie : Une seule balise H1 par page, pas plus. Concernant les autres balises, H2, H3, …,  H6, il faut obligatoirement respecter l’ordre imposé.

D’aucuns diront que c’est très secondaire, peut-être ont-ils raison ? Mais si Google l’analyse, c’est pour une bonne raison et vous vous devez de faire le nécessaire. Si l’ordre est bien respecté et que le contenu est de qualité cela aura forcément un impact positif sur votre Budget Crawl et donc les GoogleBots pourront analyser plus de contenu à chaque passage.

Notre diagnostic SEO offert vous attend !

Des infos rapides et actionnables dès maintenant pour gagner rapidement du trafic !

0 commentaires

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée.