Quel problème technique SEO rencontres-tu le plus souvent sur les sites que tu audites?
Les fichiers robots.txt mal configurés. Je vois régulièrement des sites qui bloquent accidentellement des sections entières. L'année dernière, un client perdait 60% de son trafic organique parce qu'une règle bloquait tout le dossier des ressources pédagogiques. Personne ne l'avait remarqué pendant huit mois.
Qu'est-ce qui passe inaperçu chez les développeurs moins expérimentés?
Les balises canoniques contradictoires. Tu as une page qui pointe vers elle-même comme canonical, mais le sitemap XML référence une autre URL. Google doit choisir, et parfois il indexe la mauvaise version. J'ai vu des pages de cours dupliquées à cause de paramètres UTM non gérés dans les canonicals.
Quelles erreurs techniques impactent vraiment les Core Web Vitals?
Les polices web non optimisées détruisent le CLS. Un site chargeait quatre variantes de Roboto sans font-display: swap. Chaque chargement de page générait un décalage de 0.18. On est passé à deux variantes avec preload et le CLS est tombé à 0.04. Les scripts tiers non différés posent aussi problème, surtout les outils d'analytics chargés en synchrone.
Comment identifies-tu ces problèmes rapidement?
Je commence toujours par Screaming Frog pour crawler le site complet. Ensuite, je vérifie les logs serveur pour voir ce que Googlebot crawle réellement versus ce qu'on pense qu'il crawle. L'écart est souvent révélateur. PageSpeed Insights pour les métriques, mais je préfère WebPageTest pour comprendre la cascade de chargement. Les données structurées, je les valide avec le Schema Markup Validator, pas juste le testeur Google.
Un conseil pour les développeurs qui travaillent seuls?
Automatise tes vérifications. Un script mensuel qui teste les codes HTTP, les canonicals et le sitemap t'évite 80% des problèmes. Garde une checklist, révise-la après chaque déploiement.