SEO technique : audit complet et checklist — Core Web Vitals, crawl, indexation

Le SEO technique est le socle sur lequel repose toute votre visibilité Google. Peu importe la qualité de vos contenus ou la force de vos backlinks : si Googlebot ne peut pas crawler vos pages, si votre site charge en 8 secondes, si vous avez des milliers de pages dupliquées — vous n’irez nulle part. Ce guide couvre l’intégralité de l’audit SEO technique avec une checklist actionnable.

Partie 1 : Crawlabilité et indexation

Le fichier robots.txt

Le fichier robots.txt indique aux robots d’indexation quelles parties du site explorer ou ignorer. Une erreur ici peut bloquer l’indexation de tout votre site.

Vérifications essentielles :

  • Accessible à votresite.com/robots.txt
  • N’est pas en mode "Disallow: /" en production (erreur fréquente lors des migrations)
  • Bloque les pages inutiles : résultats de recherche interne, pages de filtres, pages d’administration
  • Contient le lien vers votre sitemap XML

Le sitemap XML

Le sitemap est votre guide pour Googlebot. Il doit être propre, à jour, et soumis dans Google Search Console.

  • N’incluez que les pages indexables (pas de noindex, pas de redirections)
  • Maximum 50 000 URLs par fichier sitemap
  • Utilisez des sitemaps séparés : posts, pages, images
  • Vérifiez le taux d’indexation dans GSC : Sitemaps → URLs soumises vs indexées

Les balises noindex et canonical

Noindex : indique à Google de ne pas indexer la page. À utiliser sur :

  • Pages de tags et archives de dates WordPress
  • Pages de résultats de recherche interne
  • Pages de confirmation de formulaire
  • Pages de filtres e-commerce sans contenu unique

Canonical : indique à Google quelle est la version "officielle" d’une page dupliquée. À vérifier :

  • Toutes les pages ont un canonical qui pointe vers elles-mêmes (self-canonical)
  • Les pages paginées ont un canonical correct
  • Les versions www et non-www renvoient le même canonical
  • HTTPS et HTTP renvoient le même canonical

Audit des erreurs de crawl

Dans Google Search Console → Couverture de l’index :

  • Erreurs (rouge) : pages 404, erreurs serveur 5xx — corrigez en priorité absolue
  • Valides avec avertissements (orange) : pages indexées mais avec problèmes (canonical incorrect, noindex mais dans sitemap)
  • Exclues (gris) : pages que Google a choisies de ne pas indexer — vérifiez si c’est intentionnel

Partie 2 : Core Web Vitals et performances

Depuis 2021, les Core Web Vitals sont des signaux de classement officiels de Google. Ils mesurent l’expérience utilisateur réelle sur votre site.

LCP — Largest Contentful Paint

Mesure le temps de chargement du plus grand élément visible (image, bloc de texte). Objectif : moins de 2,5 secondes.

Principales causes de LCP lent et solutions :

  • Images non optimisées → convertir en WebP, ajouter l’attribut loading="eager" sur l’image hero, utiliser fetchpriority="high"
  • Serveur lent → améliorer le TTFB (Time to First Byte) avec un cache serveur et un hébergement de qualité
  • CSS bloquant → éliminer le CSS inutilisé, inliner le CSS critique
  • Polices web lentes → précharger les polices avec rel="preload"

INP — Interaction to Next Paint

Remplace le FID depuis mars 2024. Mesure la réactivité de la page aux interactions utilisateur. Objectif : moins de 200ms.

  • Réduire le JavaScript inutilisé et les scripts tiers
  • Optimiser les event listeners
  • Différer les scripts non critiques avec defer ou async

CLS — Cumulative Layout Shift

Mesure la stabilité visuelle de la page. Les éléments qui bougent pendant le chargement dégradent l’expérience. Objectif : moins de 0,1.

  • Définir explicitement la hauteur et la largeur de toutes les images et vidéos
  • Réserver l’espace pour les publicités et les iframes
  • Éviter d’injecter du contenu au-dessus du contenu existant
  • Précharger les polices pour éviter le FOUT (Flash of Unstyled Text)

Outils de mesure des performances

  • PageSpeed Insights (Google) : données réelles (CrUX) + audit Lighthouse
  • Google Search Console → Expérience sur la page : vue d’ensemble de vos Core Web Vitals réels
  • WebPageTest.org : test avancé depuis des serveurs français
  • GTmetrix : analyse détaillée avec waterfall

Partie 3 : Structure technique et HTTPS

HTTPS et certificat SSL

HTTPS est un facteur de classement officiel depuis 2014. En 2025, c’est le minimum absolu :

  • Certificat SSL valide et non expiré
  • Toutes les pages en HTTPS (vérifiez les mixed content : ressources HTTP sur pages HTTPS)
  • Redirection 301 de toutes les URLs HTTP vers HTTPS
  • HSTS (HTTP Strict Transport Security) activé sur le serveur

Redirections

Les redirections mal gérées sont l’une des causes les plus fréquentes de perte de SEO :

  • Utilisez uniquement des 301 (permanentes) pour les changements d’URL définitifs
  • Évitez les chaînes de redirections : A → B → C doit devenir A → C directement
  • Vérifiez qu’il n’existe pas de boucles de redirections (A → B → A)
  • Aucune page importante ne doit renvoyer un code 404 — redirigez vers le meilleur équivalent

Structure des données (Schema.org)

Les données structurées permettent à Google de comprendre le contenu et d’afficher des rich snippets dans les résultats :

  • Article : pour vos articles de blog (auteur, date, image)
  • FAQPage : pour les sections questions/réponses — génère les accordéons dans les SERP
  • HowTo : pour les tutoriels — peut afficher les étapes dans les résultats
  • Product : pour l’e-commerce (prix, disponibilité, avis)
  • LocalBusiness : pour le SEO local
  • BreadcrumbList : pour le fil d’Ariane dans les SERP

Validez avec l’outil de test des données structurées de Google et le Rich Results Test.

Partie 4 : Contenu technique

Le contenu dupliqué

Le contenu dupliqué confuse Google et dilue l’autorité entre plusieurs pages similaires :

  • Pages www vs non-www (doivent rediriger vers une seule version)
  • HTTP vs HTTPS
  • URLs avec et sans slash final (/page/ vs /page)
  • Pages de tags et catégories reprenant le contenu des articles
  • Contenu copié depuis d’autres sources (évitez absolument)

Les balises meta essentielles

  • Title : 50-60 caractères, mot-clé principal en début, unique pour chaque page
  • Meta description : 150-160 caractères, incitative, unique — pas de facteur de classement mais impacte le CTR
  • Balises Hx : un seul H1 par page, structure logique H2/H3/H4, mots-clés naturellement intégrés
  • Alt des images : descriptif, avec mot-clé si pertinent, pas de keyword stuffing

La gestion du JavaScript

Google peut indexer le contenu JavaScript, mais c’est moins fiable que le HTML statique :

  • Les contenus critiques (texte, liens) doivent être dans le HTML initial, pas chargés en JavaScript
  • Testez votre site avec JavaScript désactivé pour voir ce que Google voit vraiment
  • Utilisez le rendu côté serveur (SSR) pour les frameworks JS si votre contenu est important pour le SEO

Outils pour l’audit SEO technique

  • Screaming Frog SEO Spider (gratuit jusqu’à 500 URLs) : l’outil de référence pour crawler votre site comme Googlebot
  • Google Search Console (gratuit) : données réelles de Google sur votre site
  • Ahrefs Site Audit : crawl complet avec score de santé technique
  • Semrush Site Audit : similaire, excellent pour les alertes automatiques
  • Lighthouse (intégré dans Chrome DevTools) : audit performance, accessibilité, SEO

Checklist SEO technique complète

Crawl et indexation

  • ☑ robots.txt correct et accessible
  • ☑ Sitemap XML soumis dans GSC et sans erreurs
  • ☑ Zéro erreur 404 sur pages importantes
  • ☑ Aucun noindex accidentel sur pages cibles
  • ☑ Canonicals corrects sur toutes les pages
  • ☑ Pas de pages orphelines

Performances

  • ☑ LCP < 2,5s (mobile et desktop)
  • ☑ INP < 200ms
  • ☑ CLS < 0,1
  • ☑ TTFB < 600ms
  • ☑ Images en WebP ou AVIF
  • ☑ Cache navigateur configuré

Technique et sécurité

  • ☑ HTTPS actif sur toutes les pages
  • ☑ Pas de mixed content
  • ☑ Redirections 301 sans chaînes ni boucles
  • ☑ URLs canonisées (www vs non-www, slash final)
  • ☑ Données structurées validées (Schema.org)
  • ☑ Balises title et meta description uniques
  • ☑ Un seul H1 par page

Conclusion

Le SEO technique n’est pas glamour — c’est souvent invisible pour l’utilisateur final. Mais c’est le travail de fondation qui conditionne tout le reste. Un audit technique trimestriel permet de détecter les régressions avant qu’elles n’impactent votre trafic, et d’optimiser continuellement les signaux que vous envoyez à Google.

Commencez par Screaming Frog et Google Search Console — gratuits, puissants, et suffisants pour identifier 80% des problèmes techniques sur la majorité des sites.


Des questions sur votre audit technique ? Commentez ci-dessous, on vous aide.