Le SEO technique est le socle sur lequel repose toute votre visibilité Google. Peu importe la qualité de vos contenus ou la force de vos backlinks : si Googlebot ne peut pas crawler vos pages, si votre site charge en 8 secondes, si vous avez des milliers de pages dupliquées — vous n’irez nulle part. Ce guide couvre l’intégralité de l’audit SEO technique avec une checklist actionnable.
Partie 1 : Crawlabilité et indexation
Le fichier robots.txt
Le fichier robots.txt indique aux robots d’indexation quelles parties du site explorer ou ignorer. Une erreur ici peut bloquer l’indexation de tout votre site.
Vérifications essentielles :
- Accessible à
votresite.com/robots.txt - N’est pas en mode "Disallow: /" en production (erreur fréquente lors des migrations)
- Bloque les pages inutiles : résultats de recherche interne, pages de filtres, pages d’administration
- Contient le lien vers votre sitemap XML
Le sitemap XML
Le sitemap est votre guide pour Googlebot. Il doit être propre, à jour, et soumis dans Google Search Console.
- N’incluez que les pages indexables (pas de noindex, pas de redirections)
- Maximum 50 000 URLs par fichier sitemap
- Utilisez des sitemaps séparés : posts, pages, images
- Vérifiez le taux d’indexation dans GSC : Sitemaps → URLs soumises vs indexées
Les balises noindex et canonical
Noindex : indique à Google de ne pas indexer la page. À utiliser sur :
- Pages de tags et archives de dates WordPress
- Pages de résultats de recherche interne
- Pages de confirmation de formulaire
- Pages de filtres e-commerce sans contenu unique
Canonical : indique à Google quelle est la version "officielle" d’une page dupliquée. À vérifier :
- Toutes les pages ont un canonical qui pointe vers elles-mêmes (self-canonical)
- Les pages paginées ont un canonical correct
- Les versions www et non-www renvoient le même canonical
- HTTPS et HTTP renvoient le même canonical
Audit des erreurs de crawl
Dans Google Search Console → Couverture de l’index :
- Erreurs (rouge) : pages 404, erreurs serveur 5xx — corrigez en priorité absolue
- Valides avec avertissements (orange) : pages indexées mais avec problèmes (canonical incorrect, noindex mais dans sitemap)
- Exclues (gris) : pages que Google a choisies de ne pas indexer — vérifiez si c’est intentionnel
Partie 2 : Core Web Vitals et performances
Depuis 2021, les Core Web Vitals sont des signaux de classement officiels de Google. Ils mesurent l’expérience utilisateur réelle sur votre site.
LCP — Largest Contentful Paint
Mesure le temps de chargement du plus grand élément visible (image, bloc de texte). Objectif : moins de 2,5 secondes.
Principales causes de LCP lent et solutions :
- Images non optimisées → convertir en WebP, ajouter l’attribut
loading="eager"sur l’image hero, utiliserfetchpriority="high" - Serveur lent → améliorer le TTFB (Time to First Byte) avec un cache serveur et un hébergement de qualité
- CSS bloquant → éliminer le CSS inutilisé, inliner le CSS critique
- Polices web lentes → précharger les polices avec
rel="preload"
INP — Interaction to Next Paint
Remplace le FID depuis mars 2024. Mesure la réactivité de la page aux interactions utilisateur. Objectif : moins de 200ms.
- Réduire le JavaScript inutilisé et les scripts tiers
- Optimiser les event listeners
- Différer les scripts non critiques avec
deferouasync
CLS — Cumulative Layout Shift
Mesure la stabilité visuelle de la page. Les éléments qui bougent pendant le chargement dégradent l’expérience. Objectif : moins de 0,1.
- Définir explicitement la hauteur et la largeur de toutes les images et vidéos
- Réserver l’espace pour les publicités et les iframes
- Éviter d’injecter du contenu au-dessus du contenu existant
- Précharger les polices pour éviter le FOUT (Flash of Unstyled Text)
Outils de mesure des performances
- PageSpeed Insights (Google) : données réelles (CrUX) + audit Lighthouse
- Google Search Console → Expérience sur la page : vue d’ensemble de vos Core Web Vitals réels
- WebPageTest.org : test avancé depuis des serveurs français
- GTmetrix : analyse détaillée avec waterfall
Partie 3 : Structure technique et HTTPS
HTTPS et certificat SSL
HTTPS est un facteur de classement officiel depuis 2014. En 2025, c’est le minimum absolu :
- Certificat SSL valide et non expiré
- Toutes les pages en HTTPS (vérifiez les mixed content : ressources HTTP sur pages HTTPS)
- Redirection 301 de toutes les URLs HTTP vers HTTPS
- HSTS (HTTP Strict Transport Security) activé sur le serveur
Redirections
Les redirections mal gérées sont l’une des causes les plus fréquentes de perte de SEO :
- Utilisez uniquement des 301 (permanentes) pour les changements d’URL définitifs
- Évitez les chaînes de redirections : A → B → C doit devenir A → C directement
- Vérifiez qu’il n’existe pas de boucles de redirections (A → B → A)
- Aucune page importante ne doit renvoyer un code 404 — redirigez vers le meilleur équivalent
Structure des données (Schema.org)
Les données structurées permettent à Google de comprendre le contenu et d’afficher des rich snippets dans les résultats :
- Article : pour vos articles de blog (auteur, date, image)
- FAQPage : pour les sections questions/réponses — génère les accordéons dans les SERP
- HowTo : pour les tutoriels — peut afficher les étapes dans les résultats
- Product : pour l’e-commerce (prix, disponibilité, avis)
- LocalBusiness : pour le SEO local
- BreadcrumbList : pour le fil d’Ariane dans les SERP
Validez avec l’outil de test des données structurées de Google et le Rich Results Test.
Partie 4 : Contenu technique
Le contenu dupliqué
Le contenu dupliqué confuse Google et dilue l’autorité entre plusieurs pages similaires :
- Pages www vs non-www (doivent rediriger vers une seule version)
- HTTP vs HTTPS
- URLs avec et sans slash final (
/page/vs/page) - Pages de tags et catégories reprenant le contenu des articles
- Contenu copié depuis d’autres sources (évitez absolument)
Les balises meta essentielles
- Title : 50-60 caractères, mot-clé principal en début, unique pour chaque page
- Meta description : 150-160 caractères, incitative, unique — pas de facteur de classement mais impacte le CTR
- Balises Hx : un seul H1 par page, structure logique H2/H3/H4, mots-clés naturellement intégrés
- Alt des images : descriptif, avec mot-clé si pertinent, pas de keyword stuffing
La gestion du JavaScript
Google peut indexer le contenu JavaScript, mais c’est moins fiable que le HTML statique :
- Les contenus critiques (texte, liens) doivent être dans le HTML initial, pas chargés en JavaScript
- Testez votre site avec JavaScript désactivé pour voir ce que Google voit vraiment
- Utilisez le rendu côté serveur (SSR) pour les frameworks JS si votre contenu est important pour le SEO
Outils pour l’audit SEO technique
- Screaming Frog SEO Spider (gratuit jusqu’à 500 URLs) : l’outil de référence pour crawler votre site comme Googlebot
- Google Search Console (gratuit) : données réelles de Google sur votre site
- Ahrefs Site Audit : crawl complet avec score de santé technique
- Semrush Site Audit : similaire, excellent pour les alertes automatiques
- Lighthouse (intégré dans Chrome DevTools) : audit performance, accessibilité, SEO
Checklist SEO technique complète
Crawl et indexation
- ☑ robots.txt correct et accessible
- ☑ Sitemap XML soumis dans GSC et sans erreurs
- ☑ Zéro erreur 404 sur pages importantes
- ☑ Aucun noindex accidentel sur pages cibles
- ☑ Canonicals corrects sur toutes les pages
- ☑ Pas de pages orphelines
Performances
- ☑ LCP < 2,5s (mobile et desktop)
- ☑ INP < 200ms
- ☑ CLS < 0,1
- ☑ TTFB < 600ms
- ☑ Images en WebP ou AVIF
- ☑ Cache navigateur configuré
Technique et sécurité
- ☑ HTTPS actif sur toutes les pages
- ☑ Pas de mixed content
- ☑ Redirections 301 sans chaînes ni boucles
- ☑ URLs canonisées (www vs non-www, slash final)
- ☑ Données structurées validées (Schema.org)
- ☑ Balises title et meta description uniques
- ☑ Un seul H1 par page
Conclusion
Le SEO technique n’est pas glamour — c’est souvent invisible pour l’utilisateur final. Mais c’est le travail de fondation qui conditionne tout le reste. Un audit technique trimestriel permet de détecter les régressions avant qu’elles n’impactent votre trafic, et d’optimiser continuellement les signaux que vous envoyez à Google.
Commencez par Screaming Frog et Google Search Console — gratuits, puissants, et suffisants pour identifier 80% des problèmes techniques sur la majorité des sites.
Des questions sur votre audit technique ? Commentez ci-dessous, on vous aide.