ArticlesWebmaster

Optimisations SEO techniques : comment détecter les failles et les corriger pour gagner du trafic organique rapidement ?

Les optimisations techniques représentent une véritable opportunité d’optimiser son trafic SEO. S’il constitue l’un des trois piliers du SEO avec le content et le netlinking, l’analyse technique est essentielle pour savoir si Google accède correctement à vos pages et qu’elles figurent dans son index.

Nous vous développons ici les éléments techniques sur lesquels il faut se concentrer pour faciliter le passage de Googlebot sur votre site et ainsi gagner un trafic organique non négligeable pour votre activité.

Pourquoi faire une analyse technique de son site pour augmenter son traffic SEO ?

Faire une analyse technique de votre référencement naturel va permettre d’y voir plus clair sur l’état de santé de votre site, il s’agit de faire un état des lieux sur les urls connues et inconnues par Googlebot et identifier les raisons d’une invisibilité sur les pages de résultats de recherches. Nous vous aiderons ici à identifier les éléments techniques à travailler pour améliorer votre visibilité sur la SERP.

Le but de cette fiche est de vous montrer qu’en identifiant et en débloquant des points techniques sur votre site, vous pourrez rendre indexable des pages qui juste ici étaient ignorées par les moteurs de recherche, et par conséquent avoir davantage de visibilité sur les moteurs de recherche suite à des déblocages.

A l’heure où la concurrence s’intensifie sur de nombreux marchés et sur les investissements via le référencement payant, il est primordial de travailler les trois leviers du référencement naturel pour être visible sur les moteurs de recherche et équilibrer votre mix marketing.

Etat des lieux sur l’accessibilité de pages par les moteurs de recherche

Pour commencer les analyses, le but va être de chercher à savoir si Google accède correctement aux pages de votre site et les indexe… mais au fait, une page indexable c’est quoi ?

Une page indexable est une page qui ne contient pas d’éléments dans sa structure qui indiquerait à Google de ne pas la mettre dans son index, c’est-à-dire :

  • C’est une url qui ne contient pas de balise meta robot « noindex »
  • C’est une page qui ne contient pas une url différente dans sa balise canonique
  • C’est une url qui répond 200

Si vos pages ne figurent pas dans l’index de Google, vous n’aurez aucune chance d’apparaître de ce fait dans les résultats de recherche.

Les erreurs à éviter lors d’une analyse technique

Une analyse technique ne peut pas être faite en quelques heures, elle nécessite des journées d’analyses suite à un crawl complet du site. Il faut regarder tous les éléments et creuser toutes les failles identifiables. Bien sûr il convient de regarder également le paramétrage de vos outils de crawl et d’analyse de datas comme Google Analytics et Google Search console pour ne rater aucune informations et opportunités de traffic.

Comment savoir si j’ai des pages qui ne sont pas indexées ? Identifier les erreurs techniques qui peuvent bloquer Googlebot

Pour identifier les pages de votre site non indexées, il faut procéder à un crawl, qui peut se faire avec différents outils pour identifier les pages qui auraient une url dans une balise canonique non conforme, des pages avec un code http différent de 200 : des pages qui répondent avec un code http 3XX, 404, 5XX…, et des pages qui ne seraient pas des pages au format text/html.

L’outil search console permet d’avoir un regard sur ces problématiques dans la partie « couverture » où sont remontées les informations suivantes :

  • La liste d’urls considérés comme « erreurs » c’est-à-dire toutes les urls qui ne répondent pas avec un code http 200
  • La liste des urls considérées comme « exclues » avec pour cause des erreurs de balises canoniques, des redirections, une balise meta robot « noindex »
  • La liste des urls valides donc conforme à l’indexation

Attention vérifiez bien dans le code source que si l’outil Search console indique une meta robot « noindex » elle y soit, sinon ce serait une erreur de remontée de l’information dans l’outil.

En corrigeant la liste des éléments ci-dessus, vous permettrait à Google d’accéder à davantage de pages de votre site en entrant dans son index, vous permettrait donc l’indexation de vos pages stratégiques qui vous permettrait de générer plus de traffic et potentiellement des conversions.

Que votre site comporte peu ou des milliers de pages, la détection des erreurs techniques et leurs corrections représentent des véritables opportunités de développement de votre traffic, ensuite il faudra bien sûr travailler la qualité des contenus et le réseau de liens.

Optimiser son budget crawl : guider Googlebot vers vos pages stratégiques

Le budget crawl ou budget d’exploration est une notion qui vous parle ?

Le budget d’exploration représente le nombre d’urls que Googlebot peut et veut explorer de votre site. Il se structure par :

  • La vitesse d’exploration qui dépend des facteurs suivants :
  • Si le site répond rapidement alors la limite d’exploration du bot augmente
  • Si le site ralentit en raison d’erreurs de serveur ou d’autres typologies d’erreurs, Googlebot réduira son exploration
  • Les urls que Googlebot connaît déjà
  • Les liens provenant d’autres pages web (au sein du site et sur d’autres sites)
  • Les urls répertoriés dans le sitemap xml

Et

  • Le besoin d’exploration qui dépend de :
  • La popularité des urls via leur PageRank : en effet, plus le score d’une url est élevé et donc considéré comme populaire et plus souvent elle sera explorée par Google pour qu’elles soient le plus à jour possible dans son index

Comment est calculé le PageRank ?

Le score du PageRank dépend de la qualité et du nombre de liens entrants et sortants et aussi de l’ancienneté de la page, car on le sait plus un site a de l’ancienneté sur Google plus il sera apprécié par les moteurs de recherche

  • La fréquence d’exploration définie et qui peut être modifié via le formulaire de fréquence d’exploration sur Google Search console

Passons au crible les éléments pouvant affecter la partie technique de votre stratégie SEO :

Suite à la définition et à la décomposition ci-dessus de la notion du budget crawl, voici une checklist de critères pouvant affecter votre budget d’exploration :

La multiplication d’urls non maîtrisée peut impacter négativement votre SEO technique :

  • La mauvaise gestion des urls de navigation à facettes : la création de facettes génère une multitude d’urls et peut impacter négativement votre SEO car vous avez un risque élevé de perdre Googlebot dans cette multitude de combinaisons de pages avec les facettes et vous risquez également de nombreuses pages de contenus dupliqués.
  • Les urls générées par des identifications de session, pages de login qui peuvent créer énormément de pages et qui n’ont aucun intérêt à être connu par Googlebot, ce sont des pages qui n’ont pas vocation à être indexées

Une mauvaise gestion de création de contenus :

  • Les contenus sont-ils dupliqués ? dans quelle mesure ?
  • Les pages avec un contenu de mauvaise qualité (en dehors de la thématique de l’url, répétition abusive de mots clés appelé pratique de « keyword stuffing », traduction automatique…)
  • Les pages vides ou quasiment vides : il faut se demander alors si ces pages vides ont de l’intérêt à être gardé, est-ce qu’elle génère du trafic organique ? Si le choix est de les garder alors il faut remplir ces pages avec un contenu pertinent pour l’internaute, mailler des pages de la même thématique sur cette url pour augmenter son PageRank et rattacher l’url à la structure si ce n’est pas le cas il faut les rediriger en 301 vers une thématique proche

Les erreurs d’exploration et les problèmes de redirection :

  • Les pages d’erreurs soft 404
  • Les pages piratées et les spams
  • Les espaces infinis et proxys
  • Les chaînes de redirection, ces erreurs se produisent lorsqu’une url demandée redirige vers une url qui est elle-même redirigée créant une boucle. Cela peut se produire suite à plusieurs migrations et changements d’urls, il faut les corriger en effectuant un crawl et rediriger A vers C s’il y a deux chaînes, A vers D s’il y’a 3 boucles et ainsi de suite.

Les performances de vitesse de chargement :

  • La vitesse de chargement de page supérieur à 500 ms peut être pénalisant pour votre site, non seulement un site rapide est un signe de serveurs en bon état mais cela a un vrai impact sur le comportement de l’internaute
  • Les contenus CSS et JS : des éléments JS peuvent être externalisables pour optimiser les temps de chargement

La profondeur des pages et le maillage :

La profondeur des pages d’un site influence le passage de Google, en effet plus les pages sont profondes et plus le robot de Google va mettre du temps à les parcourir et donc dépenser davantage de budget crawl, l’idéal est d’avoir une navigation horizontale ou ascendante plutôt que descendante et se limiter à 5 niveaux maximum si possible.

Une non-harmonisation entre la version desktop et la version mobile d’un site :

On le sait Google se concentre davantage sur la version mobile des sites dû à une évolution du comportement des internautes sur la SERP, les sites passent de plus en plus à l’index mobile first. On observe que de nombreux sites qui possèdent une version desktop et mobile séparée sont souvent impactés par des urls en m. qui remontent sur les pages de résultats de Google sur desk, cela crée une confusion car l’internaute effectuant une recherche sur son ordinateur se retrouve avec le contenu avec un affichage pour mobile.

On s’aperçoit bien souvent que les éléments de balisage de type meta title, description, Hn diffèrent entre la version desktop www. Et la version mobile m. Pour éviter des impacts sur votre positionnement il est essentiel d’avoir les deux versions égales pour assurer une harmonie entre les deux versions et que Googlebot n’ait aucune confusion en parcourant les deux versions du site, il faut que les deux versions soient cohérentes.

Les optimisations techniques SEO : véritables Quick Wins pour votre trafic

Chaque site rencontre des problématiques techniques différentes, seul un crawl complet du site permet de déterminer exactement quelles sont les erreurs à traiter et dans quel ordre de priorité. En fonction du nombre d’urls concernés par des erreurs d’exploration, d’une vitesse de chargement extrêmement longue il faudra consulter son équipe technique ou prestataire pour agir rapidement. Les places sur Google deviennent chères et nous ne vous parlons pas de référencement payant, le but c’est de devancer vos concurrents en proposant à Google des pages faciles d’accès avec un contenu unique et intéressant pour l’internaute.

En corrigeant les éléments techniques de votre référencement naturel vous augmenterait considérablement le nombre de vos pages stratégiques dans l’index de Google et de ce fait vous serez légitime pour positionner votre site sur des mots clés où vous n’apparaissiez pas avant et générerait rapidement du traffic grâce au déblocage des freins techniques identifiés et corrigés.

Si ce sujet vous interesse, nous vous recommandons les services d’une agence SEO très technique. Elle peut vous accompagner dans votre stratégie d’acquisition de traffic, en effectuant un audit technique complet de votre site et en identifiant toutes les failles techniques, en repassant au crible vos pages de contenus et faisant un état des lieux de votre popularité sur les moteurs de recherche.

Photo de couverture De eamesBot / Shutterstock

Invité(e)

Conçu comme un espace de partage, nous accueillons dans notre rubrique « A vous la parole » des contributeurs occasionnels. Neozone ouvre ses colonnes pour la rédaction d’articles correspondant à notre ligne éditoriale et à nos standards de qualité. Vous pouvez vous aussi proposer vos articles, notre porte est toujours ouverte pour les nouvelles plumes.

Articles similaires

Bouton retour en haut de la page
Fermer