SEO : 4 facteurs d’influence sur le budget crawl

par | Juin 7, 2021 | 0 commentaires

Suivez nous sur les réseaux pour plus d’articles et de conseils

Le “Crawl” désigne l’action des robots de Google sur votre site. Ces robots ont pour mission de parcourir vos pages et de définir les thématiques, mots-clés et requêtes sur lesquelles les positionner. 

Le “Budget de Crawl”, c’est simplement le temps alloué par Google à ses robots pour qu’ils parcourent votre site. Celui-ci étant limité, il convient de le dépenser de façon rationnelle. C’est un concept qui concerne essentiellement les très gros sites, mais il peut aussi se révéler être un problème sur de plus petits sites comptant plusieurs centaines de pages. 

Pour l’optimiser il convient d’agir à plusieurs niveaux, voici les plus impactants (ceci n’est pas un top !)

 

Temps de chargement

Les robots de Google chargent vos pages, suivent les liens internes, chargent donc de nouvelles pages, et ainsi de suite… Son comportement est semblable à celui d’un internaute en ce sens. 

C’est donc en toute logique que les temps de chargements ralentissent les robots, comme ils ralentissent la visite de vos utilisateurs. Rappelons que le but est de faire en sorte que les robots indexent vos pages rapidement, il faut donc qu’ils les voient et qu’elles chargent rapidement.

 

Les causes d’un temps de chargement long

Un chargement long est souvent dû à des fichiers trop volumineux. 

 

Les images et vidéos

Les images doivent par exemple être optimisées. Pour optimiser une image il faut déjà choisir le bon format afin qu’elle prenne le moins d’espace possible. Le JPG est un fichier dans lequel les données sont compressées, il supprime toutes les informations dont notre œil n’a pas besoin et ne laisse que le nécessaire pour avoir une qualité acceptable pour le numérique. Il faut également être attentif au format de l’image lorsqu’elle est chargée sur votre site sinon le navigateur va redimensionner lui-même vos images, ce qui lui prendra du temps.

Pour les vidéos, il convient de les intégrer sur des pages qui ne sont pas déjà surchargées en contenu, image et animation. De préférence, utiliser le format MP4 qui a un taux de compression élevé.

 

Les fichiers de scripts

Les fichiers de code sont également volumineux, surtout le JavaScript. Ici, on a deux moyens de régler le problème. On peut non seulement installer un gzip (mod_deflate) côté serveur, mais aussi utiliser la fonction async afin de synchroniser les chargements de fichiers de code source.

 

 

Maillage interne

Vous l’aurez compris, les robots de moteurs de recherche parcourent vos pages en suivant les liens qui s’y trouvent. Ainsi, il convient de les placer savamment pour éviter aux robots de “perdre leur temps” sur des pages qui ne représentent pas d’intérêt pour le référencement naturel de votre site.

Afin de surveiller le maillage interne, vous pouvez utiliser des outils de crawl comme Screaming Frog. Il est ensuite possible d’exporter les liens externes (Outlinks), sources et pages de destinations pour optimiser votre plan de maillage.

Vous pouvez également visualiser votre maillage interne de manière gratuite en utilisant une combinaison d’outils (gratuits 😉 ). Pour cela, il vous faudra récupérer l’export de screaming frog et de créer un Google sheets qui contient ces données. 

Ensuite il vous faut créer un “Google fusion tables” en cliquant sur “Nouveau” puis “Plus” dans votre Google Drive. Ouvrez votre Google Sheets dans ce “Google Fusion Tables” puis cliquez sur “Next” et enfin “Finish”. Il ne vous reste plus qu’à créer le graphique en cliquant sur “Add charts” et “Network Graph”. 

Le plan de maillage permet entre autres d’optimiser la profondeur de page de votre site internet, favorisant ainsi un parcours plus fluide et moins efficace pour vos visiteurs.

 

Profondeur de page

La profondeur de page est la notion clé lorsqu’on parle de Crawl Budget. Il s’agit du nombre d’actions que doivent réaliser un robots et/ou un utilisateur de votre site pour atteindre une page donnée.

Importante pour gérer le Crawl Budget et pour votre référencement, on estime qu’une page de profondeur 1 à 3 génère 9 fois plus de trafic organique SEO que les pages de de profondeur 4 et plus. 

La profondeur est également une clé UX de votre parcours client. En effet, si un internaute ne trouve pas l’information qu’il cherche sur votre site en 3 clics, maximum 4, il quitte votre site. Ce comportement renvoie un indicateur négatif à Google qui pénalise votre SEO.

La profondeur de page est donc une notion clé à maîtriser, faites vous aider par une agence qui saura créer un plan de maillage et une profondeur de page optimisée.

 

 

Notre diagnostic SEO offert vous attend !

Des infos rapides et actionnables dès maintenant pour gagner rapidement du trafic !

0 commentaires

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée.