La checklist des optimisations techniques indispensables

Benjamin Gergaud
February 19, 2025

Table des matières

Challengez votre stratégie avec un expert WeBurst.
Offrez-vous 30 minutes pour échanger sur vos problématiques SEO avec un expert.
Contactez-nous

Lorsqu’on parle de SEO, la technique est un sujet qui revient sur toutes les lèvres. L’optimisation technique d’un site repose sur la manière dont il a été conçu et est généralement dépendante du CMS utilisé. Souvent, c’est le premier point qui est traité par les référenceurs car une mauvaise optimisation technique peut avoir des impacts considérables sur la performance d’un site. 

Pour savoir quelles optimisations techniques mettre en place pour son site, il faut revenir sur les impacts qu’une mauvaise optimisation peut avoir. 

Les risques liés à une mauvaise optimisation technique

L’optimisation technique d’un site va avoir des impacts sur de nombreux aspects. Les plus importants sont les suivants : 

  • L’indexabilité des pages
  • La lecture du contenu des pages par les robots
  • Le budget crawl
  • Le maillage interne
  • Les données structurées

Négliger un de ces aspects dans la conception de son site, c’est prendre le risque de voir ses pages ne pas ressortir sur Google, et parfois même pas être indexées. Il est donc primordial de sécuriser chacun de ces aspects en anticipant les erreurs fréquentes. ’aura donc que très peu d’impact. 

Les erreurs fréquentes liées à l’indexabilité d’une page

De nombreuses raisons peuvent provoquer une non indexation de page par Google. Voici les plus fréquentes. 

La présence de balises noindex sur le site

Le meilleur moyen de faire disparaître une page de Google, c’est d’y mettre une balise noindex. C’est une petite balise intégrée dans le code d’une page qui va indiquer à Google si vous souhaitez qu’il ajoute une page à son index ou si vous ne voulez pas qu’il l’ajoute. Pour les pages inutiles, la balise noindex est une très bonne solution. Pour les pages utiles, il faut absolument proscrire l’utilisation de cette balise. 

Pour détecter si cette balise est présente sur une de vos pages, l’idéal est de télécharger l’outil Screaming Frog pour réaliser un crawl complet et analyser l’onglet “directives”. 

Le blocage de pages par le robots.txt

Un autre moyen efficace de faire en sorte que Google n’indexe pas des pages, c’est de lui bloquer l’accès. Le fichier robots.txt sert à envoyer des consignes de crawl à Google. Vous pouvez lui dire d’ignorer certaines pages ou répertoires du site pour se focaliser sur les pages utiles. 

L’erreur fréquente est de bloquer l’accès à de nombreuses pages en ajoutant une règle pas assez restrictive. 

Si vous souhaitez bloquer un filtre sur la page catégorie d’un site avec une URL de ce format /categorie?filtre=2 et que vous mettez la règle suivante : Disallow: /categorie*. Vous aurez bien bloqué la page de filtre, mais vous aurez aussi bloqué votre page catégorie qui ne sera donc plus visitée par Google et sera probablement désindexée. 

Pour vérifier qu’aucune page utile est bloquée par le robots.txt, il suffit de lancer un crawl Screaming Frog et analyser l’onglet “bloqué par robots.txt” qui se trouve dans les “codes de réponses” > “internes”.

Les soucis de balises canonical

La balise canonical permet initialement d’éviter les soucis liés à de la duplication de contenu en fournissant à Google une page de référence pour toutes les pages qui présentent un contenu similaire. Elle agit comme une redirection pour les robots. Pour qu’une page puisse être explorée par un robot, il faut que la balise canonical soit en “self-referencing”, c'est-à-dire qu’elle pointe vers l’URL de la page elle-même. Ainsi, quand le robot visitera cette page, il comprendra qu’elle est pertinente, qu’il peut la visiter et l’indexer si rien d’autre ne bloque. 

Si vous avez sur votre site des pages qui n’ont pas la balise canonical qui pointe vers leur propre URL, cela veut dire que ces pages ne seront (normalement) pas visitées par Google. 

Une nouvelle fois, cette vérification peut être effectuée à l’aide d’un crawl Screaming Frog. Il suffit de se rendre dans l’onglet “version canonique” et de sélectionner les URL canonisées. 

La duplication de contenu

Lorsque Google est confronté à deux pages trop proches sémantiquement, il est possible qu’il décide d’en privilégier une et de désindexer la seconde. Ce choix est fait de manière totalement arbitraire et Google ne sélectionne pas toujours la bonne URL. Il est donc possible qu’une page stratégique pour vous ne soit pas indexée au détriment d’une page moins pertinente. Pour vérifier cela, il faut examiner les mots clés positionnés sur votre search console et voir quelles pages génèrent des impressions. Si un mot clé génère la majorité de ses impressions depuis une page non stratégique, il faut désoptimiser la page jusqu’à ce que Google décide de positionner la bonne page. 

Les erreurs liées à la lecture du contenu des pages pour les robots

Chargement du contenu en différé

Bien que cela ne soit pas intuitif, un robot d’indexation ne voit pas une page de la même manière que nous. Une page qui vous semble belle et complète peut être totalement vide pour un robot. C’est lié au fait que les robots ne sont pour le moment pas capables de comprendre des langages comme le JavaScript. Pour comprendre ce point très technique, il faut revenir à la base du fonctionnement de l’affichage d’une page. 

Lorsque vous souhaitez accéder à une page, vous effectuez une requête, qui va être traitée par le serveur, qui va renvoyer une réponse qui sera ensuite interprétée par le navigateur pour ensuite interpréter les langages comme le JavaScript et animer votre page. 

Le robot va faire la même chose, mais va s’arrêter avec ce que lui a renvoyé le serveur. Donc si la page renvoyée par le serveur n’est pas complète, alors le robot ne verra pas l’intégralité de votre page et pourra la juger comme n’étant pas qualitative. C’est la problématique à laquelle sont confrontés de nombreux CMS qui misent sur des framework JavaScript comme peut le faire Oxatis. 

Il est donc primordial de vérifier que votre contenu est bien pris en compte par un robot. Pour cela, rien de plus simple, il suffit de tester votre page en direct avec la search console et voir si tous les éléments ressortent bien dans le code de la page. 

S’il manque des éléments, c’est que ces éléments sont injectés sur la page après le passage des robots. Il faut donc contacter votre développeur pour corriger ce point technique. A l’inverse, une bonne pratique est de différer le chargement du contenu qui n’est pas pertinent (pop-up des cookies par exemple) pour faire en sorte que ce contenu ne soit pas lu par les robots. 

Infinite scroll ou défilement infini pour remplacer la pagination

L’infinite scroll est une solution UX mise en place par de nombreux sites e-commerce. L’objectif ? Faire en sorte que l’utilisateur ait toujours des produits à consulter en défilant en lui retirant le moment de décision entre aller à la page suivante et interrompre sa navigation. 

Bien qu’elle soit idéale sur le papier, cette alternative à la pagination présente un souci important. En fonction des configurations, Google n’a aucune page de pagination à explorer et ne détecte donc pas les éléments présents sur les pages paginées. Cela impacte fortement le maillage interne des éléments présents en page paginée. 

Pour contourner ce souci, de nombreux sites ont opté pour une double pagination : un infinite scroll pour l’utilisateur et une pagination cachée pour les robots de Google qui ont besoin d’avoir un lien cliquable. 

Si votre site intègre une solution d’infinite scroll, il faut impérativement vous rendre dans le code source d’une de vos pages catégories pour voir si une pagination cachée est présente. Vous pourrez facilement la détecter en cherchant la présence de paramètres “?p=” ou “?page=” dans le code de la page. Si aucune pagination n’est présente, il faut en ajouter une. 

Les erreurs liées au budget crawl

Le budget crawl est une ressource importante que Google va investir sur votre site. Pour vulgariser, il faut le voir comme un temps que Google vous accorde. Plus vous êtes régulier dans la publication de contenu en apportant de la qualité, plus il va vous consacrer de temps. A l’inverse, plus vous lui envoyez de pages de mauvaise qualité, moins il passera de temps sur votre site. L’objectif est donc de faire en sorte que les robots ne gaspillent pas de temps à visiter des pages de mauvaise qualité, et pour cela, il faut être en mesure de les identifier. 

Les pages de filtres

Toujours dans un but d’améliorer l’expérience utilisateur, de nombreux sites mettent en place des filtres de navigation. Ces filtres génèrent automatiquement une version alternative de la page en cours en changeant simplement le listing produit. Pour Google, ces deux pages sont identiques et présentent le même contenu. Il va donc perdre du budget crawl en les explorant. Il faut donc faire en sorte de supprimer les liens internes vers ces pages de filtres en mettant en place des filtres qui fonctionnent sans balises <a> dans le code.  

Cette optimisation est applicable par la même occasion à toutes les pages générées par les fonctions de tri. 

En complément, il faudra ajouter une balise noindex sur toutes ces pages inutiles. Une fois qu’elles seront toutes désindexées, il faudra les bloquer avec le robots.txt. 

Si votre site a du potentiel à exploiter en utilisant des filtres, il faudra à l’inverse les laisser indexables et présents dans le maillage interne, tout en rendant ces pages personnalisables et optimisables pour le SEO. 

Les paramètres d’URL

Sur de nombreux CMS, des paramètres sont ajoutés dans les URLs pour suivre le comportement des utilisateurs. Cela permet de ne pas avoir à miser sur des cookies qui pourraient être refusés. 

Les pages générées peuvent avoir un impact considérable pour votre budget crawl car elles sont présentes en très grande quantité tout en étant parfaitement identiques aux pages classiques. Il faut désactiver le fonctionnement par paramètres pour privilégier le fonctionnement par cookies. 

Il est possible que votre site génère des paramètres pour de nombreuses raisons. La majeure partie de ces paramètres peuvent être bloquée d’accès pour les robots. Attention juste à ne pas bloquer les paramètres liés à vos campagnes Google Ads ou les variant produits de shopify qui s'ils sont bloqués vont bloquer le flux produit présent sur le Merchant Center et donc stopper toutes les campagnes google shopping. 

Les erreurs de maillage interne

Pour améliorer la structure de son maillage interne, il faut souvent avoir recours à des implémentations techniques. Mais avant de mettre en place des solutions techniques, il faut comprendre ce qu’est un bon maillage interne. 

En SEO, une croyance populaire veut que plus une page reçoit de liens internes, plus elle sera mise en avant. Spoiler : c’est faux !

Lorsque vous faites un lien d’une page 1 vers une page B, vous allez transmettre une partie de la popularité de la page A à la page B. Mais si vous faites depuis la page A des liens vers 20 autres pages. Chaque page recevra 5% de la popularité que la page est en mesure de transmettre. 

Donc imaginons que vous avez 4 pages, A, B, C et D de popularité égale de 100 sur un indice de 1 à 100. Votre page A fait 1 lien sortant vers votre page E. Vos pages B, C et D font chacune 20 liens vers les 20 mêmes pages. 

Partons du principe qu’une page peut transmettre 50% de sa popularité grâce au maillage interne. 

Alors votre page A va transmettre 50 de popularité en 1 lien à votre page E. 

Chacune des pages qui reçoivent un lien des pages B, C et D va recevoir 5% des 50 de popularité par lien entrant, soit (50*5/100)*3=7,5. 

La page E en ayant un seul lien entrant aura donc beaucoup plus de force que les pages qui en reçoivent 3. 

Maintenant que cette logique est intégrée, il est possible de créer une stratégie de maillage interne efficace qui ne mise pas sur la quantité de liens, mais sur la qualité et la thématisation des liens. 

Les liens vers des pages inutiles

Pour une stratégie de maillage interne optimale, il faut être en mesure de retirer tous les liens superflus ou qui pointent vers des pages inutiles. Par exemple, il est inutile de garder un lien sur chacune de vos pages en direction de vos mentions légales ou de votre politique de confidentialité. Ces liens vont être utiles sur votre page d’accueil pour votre crédibilité, mais n’ont pas d’intérêt à être présents sur toutes les pages car chacun de ces liens va ajouter une part supplémentaire au moment de la distribution de popularité. Pas étonnant que les mentions légales remontent autant dans les résultats de recherche Google lorsque vous tapez le nom d’une marque. C’est souvent une des pages les plus fortes du site ! 

L’idéal pour les liens vers des pages inutiles, c’est l'obfuscation. Une technique vise à laisser un lien cliquable pour un utilisateur, mais qui ne pourra pas être détecté par Google car il n’y a pas de balise <a> dans le code. 

Pour identifier les pages inutiles présentes dans le maillage interne, rien de plus simple. Il suffit d’aller voir vos liens dans la search console ou de réaliser un crawl Screaming Frog. 

liens internes search console

Les liens multiples

Multiplier les liens vers une même page ne sert à rien. Si votre page A fait 2 liens vers votre page B et 1 lien vers votre page C, Vos pages B et C recevront toutes les deux ⅓ de la popularité transmise. Le ⅓ restant sera perdu. En tenant compte de cette affirmation, il devient donc important de retirer tous les liens en double car ils ne servent à rien pour le SEO, mais sont utiles pour l’utilisateur. En partant de cette information, un lien vers une page présente dans votre header n’aurait aucune importance ? C’est partiellement vrai. 

Le contexte de lien va forcément avoir son importance et un lien dans le contenu sera valorisé par rapport à un lien dans une zone dupliquée comme le header ou le footer. 

C’est pour cette raison que l’obfuscation de liens partielle dans le header et footer trouve tout son sens. Vous faites en sorte qu’il y ait le moins de liens possible sur votre page pour ajouter manuellement des liens de qualité et avoir une meilleure contextualisation de vos liens. 

Le plus simple pour détecter les liens en doublons va être de lancer un crawl screaming frog et dans l’onglet lien de comparer le nombre de liens sortants avec le nombre de liens sortants uniques. Le ratio est généralement entre 30% et 50% de liens uniques. Plus vous réussirez à avoir un ratio élevé, moins vous aurez de pertes de popularité liées à votre maillage interne. 

La vitesse de chargement

La vitesse de chargement du site est un critère de positionnement à part entière. Cette vitesse est souvent influencée par la politique de gestion des images. Plus vos images sont lourdes, plus votre temps de chargement va être long. Plus votre temps de chargement est long, plus crawler la page consomme de budget crawl. 

Il est donc très important de bien gérer ses images pour éviter les images surdimensionnées et pour mettre en avant uniquement des images compressées et avec des dimensions adaptées à celles de l’écran. 

Les informations sur le poids des images peuvent être obtenues avec un crawl screaming frog ou avec Page Speed Insight qui va aller plus loin en simulant le gain potentiel de temps de chargement.

Les données structurées

Ajouter des données structurées à son site c’est faire en sorte que Google le comprenne mieux et le mette en valeur dans ses résultats de recherche. Il existe aujourd’hui des données structurées adaptées à tous les secteurs d’activités, mais les principales restent les suivantes : 

  • Produits
  • Avis / Note moyenne
  • Fil d’ariane
  • Articles
  • Organisation 

Chacune de ces données structurées va avoir un rôle bien précis et un impact sur la SERP. 

La microdonnée produit permet de faire remonter le prix, la disponibilité en stock, les conditions de livraison, la politique de retour, les offres promotionnelles et bien d’autres informations. La microdonnée avis combinée à celle des notes moyenne permet de faire remonter des étoiles et un nombre d’avis.

Le fil d’ariane permet de faire remonter le chemin d’accès à la page et sa position depuis la page d’accueil. 

La microdonnée article permet de faire remonter la date de publication, la dernière modification, l’auteur d’un article de blog. 

La donnée structurée organisation va elle permettre de faire remonter les informations de base d’une entreprise comme pourrait le faire une fiche Google Business Profile. 

L’implémentation de ces données structurées peut être réalisée à l’aide de modules ou avec un développement spécifique. Pour tester si votre site en bénéficie nativement, un outil de test est mis à disposition par Google. 

Conclusion

Les optimisations techniques possibles pour un site sont nombreuses, il est impossible de toutes les mettre en place. Il est néanmoins possible de prioriser pour mettre en place les optimisations techniques indispensables qui font une réelle différence pour le référencement. Nous n’avons volontairement pas abordé les évidences telles que la structure Hn d’une page qui ne sont plus aussi indispensable que par le passé car Google est en mesure d’interpréter une autre structure Hn que celle que vous proposez avec le contenu qu’il trouve sur votre page et que cette optimisation n’aura donc que très peu d’impact. 

L'idéal restera malgré tout de réaliser un audit complet de votre site par des professionnels qui disposeront de toute l'expertise et d'un panel d'outil permettant de détecter et corriger tous les soucis techniques.