- Home
- Dashboard SEO : exemple de rapport client
Dashboard SEO : Vue d'ensemble & diagnostics
Exemple de rapport consolidant les données Google Analytics, Search Console et les audits techniques pour donner une lecture complète de la santé SEO du site. Chaque section inclut les chiffres bruts et leur interprétation.
Période
25 févr. — 23 mars 2026
Source
GA4 + Search Console + SEO outils
Uptime
100 % sur 30 jours
Trafic toutes sources confondues
Ces chiffres couvrent l’ensemble des canaux d’acquisition — organique, direct, réseaux sociaux, référents. C’est la vision globale de l’audience, indépendamment de la source.
Utilisateurs actifs 28j
26,3k
↓ 4,8 % vs période préc.
Nouveaux utilisateurs
950
↑ 3,8 %
Taux nv visiteurs
95 %
↑ 1,3 %
% Engagement
50 %
↓ 4,1 %
Pages / utilisateur
2,5
↑ 0,6 %
Temps d’engagement
0:42
↑ 7,5 %
Ce que disent vraiment ces chiffres
Le volume total recule légèrement (−4,8 %), mais la composition du trafic raconte une autre histoire. 95 % de nouveaux visiteurs sur 28 jours, c’est rare pour un site de contenu : ça signifie que le référencement attire sans cesse de nouvelles personnes plutôt que de faire revenir un public fidèle. C’est à double tranchant — bon signe pour la visibilité organique, moins bon pour la rétention.
Le taux d’engagement à 50 % (sessions avec interaction réelle) est correct mais perfectible. L’augmentation du temps moyen (+7,5 % à 42 secondes) suggère que les visiteurs qui restent lisent vraiment. Le problème, c’est qu’une bonne moitié repart sans interagir.
→ Piste prioritaire : travailler les CTAs internes et les liens contextuels pour retenir plus longtemps les visiteurs qui arrivent via Google.
Mobile dominant
60,5 % mobile — 38,2 % desktop — 1,3 % tablette. Le mobile est majoritaire, ce qui est cohérent avec la cible touristique (recherches en déplacement, sur place à Paris).
Google indexe en mobile-first depuis juillet 2024 : toute optimisation technique doit prioriser l’expérience sur smartphone.
→ Piste prioritaire : travailler les CTAs internes et les liens contextuels pour retenir plus longtemps les visiteurs qui arrivent via Google.
Top pays
États-Unis en tête devant la France, le Canada, le Mexique, l’Australie. La forte présence anglosaxonne est logique pour un site sur Paris — mais elle indique aussi que les pages en anglais ont un rôle stratégique important à jouer dans la croissance organique.
Chrome & Safari dominent
Chrome concentre la majorité du trafic desktop, Safari le trafic iOS. La présence de Safari in-app (navigation depuis Instagram, Twitter…) mérite attention : ces sessions ont souvent des durées plus courtes et des taux de rebond plus hauts. Ce n’est pas un problème en soi, mais c’est utile à garder en tête pour interpréter les variations d’engagement.
→ Tester régulièrement les pages clés sous Safari iOS reste indispensable.
Mobile dominant
Windows domine côté desktop, iOS côté mobile — la répartition classique d’un site de contenu avec une audience internationale. La part Android est présente mais secondaire, ce qui contraste avec les stats mondiales où Android est pourtant majoritaire. Cela peut indiquer un public avec un pouvoir d’achat plus élevé, cohérent avec le positionnement tourisme Paris.
Trafic organique Google uniquement fréquentes
Contrairement à GA4, Search Console ne mesure que ce que Google voit : impressions, clics, positions. C’est ici qu’on lit la santé SEO réelle du site.
Signal positif sur les clics, position encore instable
Sur la période (25 févr. – 23 mars 2026), les clics oscillent entre 32 et 82 par jour avec une tendance globalement stable. Le pic à 82 clics le 18 mars correspond probablement à un contenu récent qui a décroché — et c’est ça, la vraie fenêtre d’opportunité.
La position moyenne tourne autour de 13–15 sur la période. C’est la zone de flottaison la plus frustrante : trop loin pour générer du volume, assez proche pour que des optimisations ciblées puissent faire passer des pages en première page. Une poignée de contenus en positions 8–12 auraient un impact rapide s’ils étaient travaillés.
→ Identifier les pages en positions 6–15 avec plus de 50 impressions/jour. Ce sont les cibles prioritaires pour des optimisations on-page.
Pages performantes
10 cinémas insolites de Paris
250
Incontournables de Paris à pied
196
Homepage (FR)
107
Homepage (via Google Business
92
Champs-Élysées (EN)
82
Homepage (EN)
63
343 pages au total génèrent des clics. La concentration est forte sur les 2 premières pages (55 % des clics).
~5 000 à 6 700 impressions par jour
Le volume d’impressions est stable et solide : entre 4 700 et 6 700 affichages quotidiens dans les résultats Google. C’est le signe que le site est bien crawlé et que ses sujets correspondent à des requêtes réelles.
La volatilité journalière est normale — elle reflète les fluctuations de l’algorithme. Ce qui compte, c’est que la ligne de base ne décroche pas. Ici, elle tient bien, ce qui exclut une pénalité ou une perte d’indexation massive.
Champs-Élysées : le mot-clé locomotive
Les requêtes autour des Champs-Élysées génèrent le plus d’impressions, largement devant les autres. C’est une bonne nouvelle — et un risque. Bonne nouvelle parce que c’est un sujet à fort volume. Risque parce qu’une dépendance à une poignée de requêtes rend le trafic fragile face aux mises à jour d’algorithme.
Les requêtes de marque arrivent en 6e–7e position en impressions mais dominent les clics — ce qui est normal. Ce sont les requêtes les plus efficaces.
→ Diversifier le cocon sémantique au-delà des Champs-Élysées reste un axe stratégique à prioriser.
Requêtes de marque et contenu de niche
xxxxxxxxxx
90
cinema original paris
45
cinéma insolite paris
20
canal saint martin
90
Le contenu sur les cinémas insolites performe bien sur des requêtes à longue traîne. 7 710 requêtes différentes ont généré au moins un clic sur la période — la diversité sémantique est réelle.
58,5 % mobile en organique
La répartition mobile/desktop sur le trafic Google seul (58,5 % / 40,2 %) confirme la domination mobile, encore plus marquée qu’en analytics global. Chaque optimisation de vitesse ou d’ergonomie mobile a un impact direct sur le SEO.
Progression des indicateurs dans le temps
Ces chiffres couvrent l’ensemble des canaux d’acquisition — organique, direct, réseaux sociaux, référents. C’est la vision globale de l’audience, indépendamment de la source.
78,6 / 100
Score SEO technique (fév. 2026)
51,2 / 100
Score performance SEO (fév. 2026)
90,0 / 100
Performance mobile (PageSpeed)
99,0 / 100
Performance desktop (PageSpeed)
Ce que disent vraiment ces chiffres
Le score technique est passé de 71,3 en janvier 2024 à un creux à 61,1 en mars 2025, avant de remonter significativement à 81,4 en mai 2025. Depuis, il se maintient autour de 78–79, ce qui correspond à la catégorie « Good » selon les barèmes standards.
Le score de performance SEO (qui intègre les signaux d’engagement et d’indexation) est plus bas, à 51,2 — zone « Needs Improvement ». Il n’a pas suivi la même courbe haussière que le technique : les optimisations de contenu et de maillage n’ont pas encore porté leurs fruits.
→ L’écart entre score technique (bon) et score performance (moyen) pointe vers un problème de contenu : pages peu engageantes, pages zombies en masse, maillage interne insuffisant.
Courbe préoccupante : +10 500 % en 2 ans
En janvier 2024, seules 2 pages dépassaient le seuil des 600ms. Début 2026 : 211 pages. C’est la hausse la plus inquiétante du dashboard.
La croissance n’est pas linéaire — elle s’emballe à partir de mai 2025, probablement corrélée à une augmentation du volume de contenu sans optimisation parallèle des médias et des scripts.
Le temps moyen de téléchargement des pages est pourtant en baisse (89ms en mars 2025 → 77ms en février 2026), ce qui suggère que le serveur lui-même s’améliore, mais que certaines pages spécifiques deviennent de plus en plus lourdes.
→ Audit d’images prioritaire : 107 pages avec des images trop lourdes et 193 sans attribut ALT.
275 pages sans aucune activité
Le nombre de pages avec un indice zombie ≥ 20 est passé de 124 en mai 2025 à 275 en novembre 2025. Une « page zombie » est une URL qui existe dans le site mais ne reçoit aucun trafic, aucun clic depuis Google, et n’est pas pointée par des liens internes significatifs.
Ce volume élevé est problématique pour deux raisons : il dilue le budget de crawl (Googlebot passe du temps sur des pages sans valeur) et il peut signaler à Google que le site produit du contenu de faible qualité en volume.
→ Stratégie de traitement : noindex sur les pages de faible intérêt, consolidation ou suppression des doublons, redirection 301 pour les URLs orphelines.
Deux chantiers à ouvrir rapidement
Maillage interne : la courbe s’est améliorée depuis mi-2025 (taux d’erreur tombé de 70,9 % à 0,7 %), ce qui est une vraie progression. Mais 153 pages ont encore entre 0 et 3 liens internes — soit une profondeur de connexion insuffisante pour que Google les valorise correctement.
Balises title : un pic à 12 pages avec des titles de plus de 100 caractères est apparu en janvier 2024. Il a été résorbé depuis. Les titles entre 51 et 60 caractères restent la norme à respecter — trop court, vous perdez des mots-clés ; trop long, Google tronque.
✓ Point positif : uptime parfait
Le site affiche 100 % d’uptime sur 7 jours et 30 jours (Uptime Robot). Un seul incident enregistré en août 2025. La stabilité serveur est un prérequis SEO souvent négligé — ici, il est parfaitement maîtrisé.
Dernier audit
Photographie instantanée de l’état d’indexation et des scores SEO. C’est la base de diagnostic pour prioriser les chantiers techniques.
62 % des URLs génèrent des clics — c’est insuffisant
L’entonnoir d’indexation est un outil de diagnostic puissant. Voici comment lire ces chiffres :
URLs découvertes
100%
Autorisées au crawl
100%
Format HTML (200)
93 %
Indexables
88 %
Générant des clics
62 %
Le vrai problème est au bas de l’entonnoir : 38 % des pages indexées ne génèrent aucun clic. Ce n’est pas un problème d’indexation technique (le robots.txt est propre, les codes HTTP sont bons) — c’est un problème de pertinence et de compétitivité des contenus.
→ Ces pages existent, Google les connaît, mais les utilisateurs ne cliquent pas. Deux causes probables : position trop basse (>20) ou title/meta description peu incitatifs.
Par famille de critères
Liens sortants externes
60 %
Temps de téléchargement
40%
Profondeur & maillage interne
32 %
Contenu des pages
30 %
Indexabilité HTML
5,3 %
Balise title
3,1 %
URLs en erreur
2,6 %
Meta description
0,2 %
343 pages au total génèrent des clics. La concentration est forte sur les 2 premières pages (55 % des clics).
8,6 pages en 404 — à corriger en priorité
Les 404 sont de l’énergie gaspillée : Googlebot les crawle, les compte, et peut en déduire que le site est mal entretenu. Les redirections 301 sont normales (migrations, URLs historiques), à condition que leurs chaînes ne soient pas trop longues (max 2 redirections en cascade).
→ Mapper les 404 pour voir si des liens internes ou externes les pointent encore. Les corriger ou les rediriger vers la page la plus pertinente.
Arborescence saine
La majorité des pages se trouvent à profondeur 2 (120 pages) et profondeur 3 (66 pages). La profondeur moyenne est de 2,04 — c’est excellent. Google accède facilement à tout le contenu sans avoir à crawler trop profond.
Détail des erreurs et avertissements
Le diagnostic granulaire — balises, images, maillage, liens sortants, zombies. C’est ici qu’on identifie précisément ce qu’il faut corriger et dans quel ordre.
⚠ Temps de chargement : 211 pages dépassent 600ms
Un temps de téléchargement élevé pénalise à la fois l’expérience utilisateur et le crawl budget. Googlebot alloue un temps limité par domaine — s’il passe ce temps sur des pages lentes, il en crawle moins. Le serveur s’améliore (77ms de temps moyen en fév. 2026), mais des pages individuelles restent très lentes.
193 pages sans ALT, 107 avec images lourdes
C’est le chantier le plus rapide à traiter avec le plus fort impact. 193 pages sans attribut ALT signifient que Google Images ne peut pas interpréter ces visuels, et que le site rate des positions sur des recherches visuelles (très importantes dans le tourisme).
Les 107 pages avec images trop lourdes contribuent directement aux 211 pages lentes. Compresser et redimensionner ces images peut faire tomber le nombre de pages lentes de moitié.
95,5 % des pages indexables sont inactives
Sur 240 pages indexables, 229 n’ont jamais été vues depuis Google (indice zombie ≥ 20). C’est un chiffre brutal. Il signifie que le site publie beaucoup de contenu qui n’attire personne — ni visiteur, ni clic en SERP.
Ce n’est pas forcément un problème de qualité rédactionnelle : c’est souvent un problème de requête cible trop concurrentielle, d’absence de maillage interne vers ces pages, ou d’une intention de recherche mal adressée.
→ Auditer page par page : supprimer, fusionner, ou retravailler l’angle éditorial.
Liens cassés en masse
144 liens en 301, 126 en erreur 500, 121 en 403 — le profil des liens sortants est problématique. Ces liens pointent vers des ressources externes qui ont bougé ou disparu.
Pourquoi c’est un problème SEO ? Google considère les liens sortants comme un signal de qualité éditoriale. Un site qui pointe vers des ressources cassées paraît mal entretenu. De plus, le PageRank transmis à ces liens est « perdu ».
130 H1 en doublon, 72 pages sans H1
Les balises de titre sont fondamentales pour signaler à Google la hiérarchie du contenu d’une page. 130 balises H1 dupliquées signifient que plusieurs pages partagent le même titre principal — Google peut avoir du mal à distinguer leur sujet respectif.
72 pages sans aucune balise H1 sont encore plus problématiques : sans H1, Google n’a pas de signal fort sur le sujet principal de la page. Ces pages méritent une correction en priorité.
Les 79 H1 vides (balise présente mais sans contenu) sont aussi à corriger — probablement des pages générées automatiquement ou des templates mal configurés.
Contenu court et metas partiellement dupliquées
77 pages « sans doute trop courtes » (taux d’erreur contenu 30 %) : sur un site de contenu touristique, des pages trop légères en texte ne peuvent pas se positionner sur des requêtes compétitives. Google favorise les pages qui traitent un sujet en profondeur.
26 meta descriptions dupliquées : la meta description n’est pas un facteur de ranking direct, mais elle influence le taux de clic (CTR). Deux pages avec la même meta donnent à l’utilisateur la même promesse — et potentiellement une impression de site peu soigné.
3,3 pages ont des metas trop courtes (<90 caractères) — c’est de l’espace de copywriting SEO non utilisé.
Priorisation des chantiers par impact
Priorité
Chantier
Volume
Impact SEO
Effort estimé
* Exemple de rapport suite à un audit techniqe, données croisées avec Google Analytics, Google Search Console + mes outils de SEO
Visibilité dans les moteurs IA
ChatGPT, Perplexity, Google AI Overviews — ces moteurs citent des sources dans leurs réponses. Le GEO mesure la capacité du site à être sélectionné. C’est une couche d’optimisation distincte du SEO classique, mais qui repose sur les mêmes fondations techniques.
llms.txt
Absent
⚠ À créer
Schema.org JSON-LD
Partiel
⚠ À compléter
Requêtes informationnelles
7 710
↑ Base solide
Pages avec contenu structuré
Faible
↓ Priorité haute
Autorité thématique
Émergente
→ En construction
Citations IA mesurées
N/A
→ Non suivi encore
Le suivi GEO existe — il est juste différent du SEO classique.
Pas de Search Console pour les citations IA, mais des signaux concrets : évolution des requêtes de marque en GSC, trafic direct en hausse, tests manuels sur les requêtes cibles dans ChatGPT, Perplexity et Google AI Overviews. Ce dashboard intègre les proxies mesurables dès maintenant — et un protocole de suivi direct est mis en place dès le démarrage de la mission GEO.
Chaque moteur a ses propres règles — mais une base commune
Les trois grands moteurs génératifs ne fonctionnent pas de la même façon, et ce n’est pas un détail mineur quand on pense à la stratégie de contenu.
Google AI
Overviews
C’est le moteur le plus aligné avec le SEO classique. Il valorise fortement l‘E-E-A-T (Expérience, Expertise, Autorité, Fiabilité) et les signaux Google habituels. Bonne nouvelle : le travail SEO déjà en place est directement réutilisable. Le score technique à 78,6 est une base correcte — mais les 229 pages zombies et les 72 pages sans H1 tirent l’autorité thématique vers le bas.
ChatGPT /
SearchGPT
S’appuie sur Bing pour ses sources. L’indexation Bing est souvent sous-estimée — vérifier la présence du site dans Bing Webmaster Tools est un prérequis. La structure des passages (réponses directes aux questions dans le corps du texte) est déterminante pour être extrait et cité.
Perplexity
Crawle en temps réel avec son propre bot (PerplexityBot). C’est le moteur le plus réactif aux changements — une optimisation produit des effets en quelques jours plutôt qu’en semaines. Vérifier que PerplexityBot n’est pas bloqué dans le robots.txt est une vérification rapide à faire immédiatement
Prérequis techniques
Fichier llms.txt
Schema Organization
Schema Article / BreadcrumbList
GPTBot autorisé (robots.txt)
PerplexityBot autorisé
Bing Webmaster Tools
Réponses directes dans le contenu
Pages piliers avec autorité thématique
Ce qu’on peut déjà lire dans les données existantes
Sans outil dédié aux citations IA, on peut construire des proxies fiables à partir de la Search Console et de GA4 :
Ce qu’on peut déjà lire dans les données existantes
Requêtes de marque en hausse — quand un site est cité dans ChatGPT ou Perplexity, les utilisateurs qui veulent en savoir plus tapent ensuite le nom de marque dans Google. Une hausse des requêtes « parisi tour » ou « parisitour » en GSC peut signaler des citations IA indirectes. À surveiller mois par mois.
Trafic direct en hausse — les utilisateurs qui voient une citation IA et tapent directement l’URL dans leur navigateur arrivent en « direct » dans GA4. Une augmentation du canal direct non explicable par d’autres facteurs peut indiquer une présence IA croissante.
7 710 requêtes informationnelles actives — c’est le signal le plus positif. Les LLMs privilégient les sites qui répondent à des questions précises. Le volume de requêtes longue traîne actives montre que le site est sur la bonne trajectoire sémantique.
→ Mettre en place un tracking UTM dédié aux liens partagés depuis les interfaces IA pour commencer à mesurer les clics entrants.
Niveau 1 sur 4
Niveau 1 — Fondations SEO présentes
Le site est correctement indexé, l’uptime est parfait, et le volume sémantique (7 710 requêtes) est une vraie base. Mais les prérequis spécifiques aux moteurs IA (llms.txt, schemas complets, réponses structurées, présence Bing) ne sont pas encore en place.
5 actions rapides pour démarrer
Priorité
Action
Moteur ciblé
Effort
Délai résultats
Implémenter Schema Organization + TouristAttraction sur les pages clés
Google AI Overviews
Moyen
4–8 semaines
Restructurer les 2–3 pages piliers avec réponses directes aux questions (format Q/R)
Tous
Moyen
4–8 semaines
Mettre en place tracking UTM + surveillance requêtes de marque en GSC
Mesure indirecte
Faible
Continu
* Exemple de rapport suite à un audit techniqe, données croisées avec Google Analytics, Google Search Console + mes outils de SEO
Votre site mérite un diagnostic précis.
9 piliers analysés. Rapport priorisé, tableau de bord Looker Studio, session de restitution incluse.