AUDIT TECHNIQUE SEO

AUDIT TECHNIQUE SEO

GUIDE D’AUDIT TECHNIQUE SEO 

L’audit technique est la base d’une bonne stratégie SEO. Cela vous permet de voir les performances de votre site web et s’il y a des erreurs techniques qui doivent être corrigées. L’audit est souvent pris en charge par un expert en SEO. Cependant, si votre site web comporte un petit nombre de pages grâce à notre technique, vous avez la possibilité de tout faire par vous même. Nous allons vous donner toutes les configurations nécessaires que vous devez vérifier afin d’assurer le bon fonctionnement de votre site web. 

I. QUELS SONT LES DIFFÉRER OUTILS POUR UN AUDIT TECHNIQUES SEO ?

Pour effectuer un audit technique SEO, il faut d’abord préparer les outils suivants pour vous aider à analyser techniquement votre site web. Certains de ces outils sont gratuits sauf Screaming Frog. Bien qu’il soit payant, c’est l’outil le plus puissant et efficace et il vous fait également gagner du temps. 

Voici les outils pour effectuer un audit technique SEO :

  • Screaming Frog : outil qui permet de repérer des erreurs
  • Google Search Console : qui a pour but de vérifier l’indexation des pages et de proposer des rapports de positionnement
  • Smart SEO : un plugin d’analyse qui permet de structurer la page 
  • Ayima Redirect Path : un plugin qui permet de détecter des erreurs concernant les redirections. 

II. LES CONTRÔLES TECHNIQUES DE BASE 

2.1. Les redirections

2.1.1.  TLDs (Top Level Domains)

C’est un outil de vérification manuelle. Son objectif est d’assurer que toutes les extensions de votre domaine soient redirigées vers l’extension principale de votre choix. Pour l’application, il faut saisir le domaine suivi de “.fr”, “.com” ou d’autres extensions pour vous assurer que vous assurez que vous vous rabattez sur l’extension principale que vous avez sélectionnée. Si ce n’est pas le cas, cela signifie que vous n’avez pas d’extension. A ce stade, pour trouver une solution ca serait une bonne idée d’acheter le domaine qui manque d’extension.  

2.1.2. HTTP(S) 

Son objectif est de contrôler si la version de votre site web qui contient “www” est rédigée vers la version qui ne contient pas “www”. Pour l’appliquer, il faut saisir l’URL qui contient “www” dans la barre de recherche pour s’assurer que vous utilisez bien l’URL qui n’a pas de “www”.  Si ce n’est pas le cas, nous vous suggérons de lancer une redirection 301 de l’URL “http” vers l’URL “https”.

2.1.3. Avec ou omettre “www”

C’est un outil de vérification manuelle. Son but est de s’assurer si la version qui contient “www” de votre site est redirigée vers la version qui n’a pas de “www”. Pour l’utiliser, il faut saisir dans la barre de recherche l’URL qui possède le “www” et de vérifier que l’on retombe sur l’url qui n’a pas le “www”. Nous vous suggérons d’établir une redirection 301 si ce n’est pas le cas. 

III. LES ESSENTIELS CODES HTTP

Le code HTTP est la réponse à la requête envoyée au serveur hébergeant la page web lorsque l’utilisateur saisit l’adresse de la page ou fait un clic sur un lien hypertexte. Il y a diverses types de réponses, représentées par le chiffre du code initial.  Les codes les plus courants sont 3xx (redirection), 4xx (erreur du client) et 5xx (erreur du serveur). 

3.1. Les pages de code HTTP 3xx

301 redirection définitive et 302 redirection temporaire sont les codes 3xx les plus communs. Le code 3xx permet de contrôler le bon fonctionnement de vos pages en 3xx. Pour l’appliquer, il faut extrayez la liste des URL dans le menu “Response Code” / “Redirection (3xx)” dans Screaming Frog. Ensuite, il faut sélectionner 3 à 5 URL dans cette liste et utiliser le plugin redirect Path pour pouvoir analyser les redirections. Si le plugin désigne une redirection directe, cela signifie qu’il n’existe pas de redirections intermédiaires, donc tout est normal. 

Attention, les pages en 301 réduisent le poids des liens internes. Pour les pages SEO importantes, nous vous recommandons de créer un lien direct vers l’URL finale au lieu de passer par l’URL 301. 

3.2. Les pages obtenant un code HTTP en 4xx

Les codes 4xx représentent des erreurs d’URLs. Celles-ci s’affichent le plus souvent lorsque l’utilisateur saisit une mauvaise adresse ou que la page n’a plus lieu (erreur 404). Il est parfaitement acceptable d’utiliser ces codes lors de la suppression de pages, mais il est toujours important de s’assurer que ces pages ne sont pas intégrées à votre site. 

Son objectif est de d’assurer que les page en 404 sont rédigées avec un code 301 et contiennent une balise dit “nonindex” pour éviter l’indexation dans Google. Par conséquent, vous devez restaurer les liens entrants pour ces URL en 4xx. Supprimez ou modifiez-les. Mettez à jour l’URL sans balise 301 ou sans index.  

Notez que les pages 301 réduisent le poids des liens internes. Pour les pages SEO importantes, nous vous recommandons de créer un lien direct vers l’URL finale au lieu de passer par l’URL 301. 

3.3. Les pages avec un code HTTP en 5xx

Les erreurs 500 sont liées au serveur sur lequel le site web est hébergé. Ensuite, vous devez contacter votre hébergeur afin de résoudre le problème. La page doit être affichée, l’erreur doit donc être corrigée. Soit la page est le résultat d’un problème technique et doit être mise en 410 et retirée du maillage interne. Dans Screaming Frog, allez dans le menu “Response Code” /  “Server Error”(5xx) et extrayez la liste des URL concernées. Veuillez contacter l’hébergeur et soumettre la liste d’URL en erreur 500. 

3.4. Les balises “noindex” 

“Noindex” montre à Google de ne pas indexer la page web. Elle est généralement utilisée sur les pages de conditions générales de vente, les mentions légales, etc… Son objectif est d’assurer que toutes les pages en “noindex” sont des pages que vous ne voulez pas que les moteurs de recherche n’indexe pas. Pour l’appliquer, il faut aller dans Screaming Frog dans “Directive” / “Noindex” afin d’étayer la liste des URLs concernées. Il faut supprimer et insérer une balise “nonindex” sur les pages qu’il faut. 

IV. L’AUDIT SEO DE PAGES WEB

4.1. Les balises fondamentaux de contenu

4.1.1. La balise title

La balise title affiche sur les pages de résultats des moteurs de recherche et assure des critères stricts. Vous pouvez extraire la liste des pages contenant des erreurs de balise title grâce à Screaming Frog. Une fois dans Screaming Frog, allez dans le menu “Page Title” et sélectionnez les filtres suivants : 

    • “Missing”
    • “Duplicate”
    • “Below”
    • “Over 65”

4.1.2. Les balises H1 et H2

La balise H1 équivaut au “gros titre” de votre page et doit être pareil pour chaque site. Veuillez noter que certains CMS créent plusieurs H1 qui nuisent à votre SEO. 

Les balises H2 correspondent aux titres de section du contenu d’une page web. Il n y a pas de règles strictes, mais chaque page doit comporter des balises H2. Il est donc important de les vérifier. 

4.1.3. La balise meta description 

La balise meta description s’affiche sur les pages de résultats des moteurs de recherche et assure à des critères stricts. Vous pouvez ensuite extraire la liste des pages avec des erreurs de balise meta description grâce Screaming Frog. Pour l’appliquer, dans screaming Frog, il faut aller dans le menu “Meta description” et faire les mêmes vérifications que pour la balise title. 

4.2. L’ÉLÉVATION DES PAGES

La profondeur de page d’un site web est le nombre de clics essentiels afin d’accéder à une page à partir de votre page d’accueil. Plus vous avez de clics, plus la page sera dite “profonde”. Google recommande une profondeur maximale souhaitée à 4 clics. 

Dans Screaming Frog, dans le volet droit, accedez à ‘Site Structure” / “Internal”, puis “Crawl Depth” afin consulter le nombre d’URLs pour chaque niveau de profondeur de 0 clic à 1,2, etc.

4.3. La pagination

Elle vous permet de séparer des listes de contenu en sous-pages si vous avez trop de listes de contenu, en particulier pour les sites de commerce électronique qui ont des dizaines de produits dans chaque catégorie. 

Filtrez les URLs paginées avec Screaming Frog (contenant les balises “rel= next/prev”) et vous assurez qu’elles sont adaptées en fonction des meilleures pratiques. Pour ce faire, il faut analyser une “page 1”, la page du milieu et la dernière page.

4.4. Les liens en Javascript

Son objectif est de vérifier si les balises “a href” sont correctement adaptées dans les blocs de contenu de la page web tel que le bouton ». Par conséquent, le contenu n’est pas adapté en JavaScript.  Sur une page web sélectionnée, vous allez faire un clic droit et cliquez sur « Inspecter » sur un bouton par exemple. Ensuite la balise “a href” doit préciser la sémantique du bouton”. Pour la solution, il faut insérer une balise canonique qui s’oriente vers elle-même sur toutes les pages qui manquent. 

 

V. LES CONTRÔLES D’INDEXATION 

5.1. Le fichier robots.txt

Le fichier robots.txt montre aux robots de Google les pages de votre site web que vous ne voulez pas explorer ou indexer. 

5.2. Les fichiers sitemap

Elles sont utilisées pour indiquer aux robots de Google quelles sont les pages à crawler en premier pour créer une indexation.  

5.3. Les erreurs qui sont dans la Google Search Console 

Elle est un outil en ligne gratuit fourni par Google pour vous proposer les référencements de votre site. Ici, Google vous informera de toute erreur détectée sur votre page. Toutes ces erreurs sont répertoriées dans le menu “Couverture”. 

5.4. Le rendement d’avertissement

Il fait référence à aux URLs “valides” qui sont indexées mais bloquées par le fichier robots.txt.

Il existe 8 types d’erreurs : 

    1. Erreur de serveur 
    2. Erreur en relation avec les redirections
    3. URL transmise, bloquée par le fichier robots.txt
    4. URL transmise appelée “nonindex”
    5. URL envoyée ressemblant à une erreur de type “soft 404”
    6. URL envoyée qui renvoie une demande non autorisée (401)
    7. URL transmise introuvable (404)
    8. L’URL envoyée contient une erreur d’exploration

L’audit technique SEO est un fondement robuste et essentiel pour la croissance de votre entreprise. En remédiant aux faiblesses de votre activité en ligne, vous pouvez rapidement bien établir votre positionnement sur le web et ainsi avoir une maîtrise totale de votre marché.