Contexte
Une plateforme éducative multilingue avait des milliers de pages référencées mais presque zéro impressions. Le problème n’était pas le contenu mais la manière chaotique dont les signaux arrivaient à Google.
Menaces
- Googlebot gaspillait le crawl budget sur des pages paramétrées dupliquées.
- Les routes dynamiques manquaient de canonicals, brouillant les moteurs.
- Des assets critiques étaient bloqués par cache/robots mal configurés.
- Le maillage interne mourait car des pages restaient orphelines dans des composants.
Approche
- Redessiné l’IA en clusters sémantiques + JSON-LD au niveau composant pour que chaque cours/événement déclare sa relation au parent.
- Basculé le rendu côté serveur (Next.js + edge caching) afin d’exposer immédiatement les métadonnées et supporter hreflang.
- Construit un visualiseur de flux de liens (GraphQL + D3) afin que les rédacteurs corrigent l’architecture, pas seulement la copie.
- Automatisé les checks SEO dans le CI (Lighthouse CI + Screaming Frog headless) et bloqué les déploiements en cas de dérive canonical/hreflang.
- Exploité l’API Search Console + BigQuery pour suivre le crawl ; les anomalies notifient Slack.
Résultats
L’efficacité de crawl a progressé de 54 % en un mois, le time-to-index est passé de 18 à 6 jours et les impressions ont bondi de 112 % sans nouveau contenu. L’entreprise traite enfin le SEO comme un problème système.
Retours d’expérience
Quand IA, rendu et ops sont synchronisés, le ranking devient un sous-produit. Google cherche la clarté, pas les astuces.