Dashboard SEO : Vue d'ensemble & diagnostics

Exemple de rapport consolidant les données Google Analytics, Search Console et les audits techniques pour donner une lecture complète de la santé SEO du site. Chaque section inclut les chiffres bruts et leur interprétation.

Période

25 févr. — 23 mars 2026

Source

GA4 + Search Console + SEO outils

Uptime

100 % sur 30 jours

Trafic toutes sources confondues

Ces chiffres couvrent l’ensemble des canaux d’acquisition — organique, direct, réseaux sociaux, référents. C’est la vision globale de l’audience, indépendamment de la source.

Utilisateurs actifs 28j

26,3k

↓ 4,8 % vs période préc.

Nouveaux utilisateurs

950

↑ 3,8 %

Taux nv visiteurs

95 %

↑ 1,3 %

% Engagement

50 %

↓ 4,1 %

Pages / utilisateur

2,5

↑ 0,6 %

Temps d’engagement

0:42

↑ 7,5 %

Ce que disent vraiment ces chiffres

Le volume total recule légèrement (−4,8 %), mais la composition du trafic raconte une autre histoire. 95 % de nouveaux visiteurs sur 28 jours, c’est rare pour un site de contenu : ça signifie que le référencement attire sans cesse de nouvelles personnes plutôt que de faire revenir un public fidèle. C’est à double tranchant — bon signe pour la visibilité organique, moins bon pour la rétention.

Le taux d’engagement à 50 % (sessions avec interaction réelle) est correct mais perfectible. L’augmentation du temps moyen (+7,5 % à 42 secondes) suggère que les visiteurs qui restent lisent vraiment. Le problème, c’est qu’une bonne moitié repart sans interagir.

→ Piste prioritaire : travailler les CTAs internes et les liens contextuels pour retenir plus longtemps les visiteurs qui arrivent via Google.

Mobile dominant

60,5 % mobile — 38,2 % desktop — 1,3 % tablette. Le mobile est majoritaire, ce qui est cohérent avec la cible touristique (recherches en déplacement, sur place à Paris).

Google indexe en mobile-first depuis juillet 2024 : toute optimisation technique doit prioriser l’expérience sur smartphone.

→ Piste prioritaire : travailler les CTAs internes et les liens contextuels pour retenir plus longtemps les visiteurs qui arrivent via Google.

Top pays

États-Unis en tête devant la France, le Canada, le Mexique, l’Australie. La forte présence anglosaxonne est logique pour un site sur Paris — mais elle indique aussi que les pages en anglais ont un rôle stratégique important à jouer dans la croissance organique.

Chrome & Safari dominent

Chrome concentre la majorité du trafic desktop, Safari le trafic iOS. La présence de Safari in-app (navigation depuis Instagram, Twitter…) mérite attention : ces sessions ont souvent des durées plus courtes et des taux de rebond plus hauts. Ce n’est pas un problème en soi, mais c’est utile à garder en tête pour interpréter les variations d’engagement.

→ Tester régulièrement les pages clés sous Safari iOS reste indispensable.

Mobile dominant

Windows domine côté desktop, iOS côté mobile — la répartition classique d’un site de contenu avec une audience internationale. La part Android est présente mais secondaire, ce qui contraste avec les stats mondiales où Android est pourtant majoritaire. Cela peut indiquer un public avec un pouvoir d’achat plus élevé, cohérent avec le positionnement tourisme Paris.

Trafic organique Google uniquement fréquentes

Contrairement à GA4, Search Console ne mesure que ce que Google voit : impressions, clics, positions. C’est ici qu’on lit la santé SEO réelle du site.

Signal positif sur les clics, position encore instable

Sur la période (25 févr. – 23 mars 2026), les clics oscillent entre 32 et 82 par jour avec une tendance globalement stable. Le pic à 82 clics le 18 mars correspond probablement à un contenu récent qui a décroché — et c’est ça, la vraie fenêtre d’opportunité.

La position moyenne tourne autour de 13–15 sur la période. C’est la zone de flottaison la plus frustrante : trop loin pour générer du volume, assez proche pour que des optimisations ciblées puissent faire passer des pages en première page. Une poignée de contenus en positions 8–12 auraient un impact rapide s’ils étaient travaillés.

→ Identifier les pages en positions 6–15 avec plus de 50 impressions/jour. Ce sont les cibles prioritaires pour des optimisations on-page.

Pages performantes

10 cinémas insolites de Paris

249

250

Incontournables de Paris à pied

196

196

Homepage (FR)

107

107

Homepage (via Google Business

92

92

Champs-Élysées (EN)

82

82

Homepage (EN)

63

63

343 pages au total génèrent des clics. La concentration est forte sur les 2 premières pages (55 % des clics).

~5 000 à 6 700 impressions par jour

Le volume d’impressions est stable et solide : entre 4 700 et 6 700 affichages quotidiens dans les résultats Google. C’est le signe que le site est bien crawlé et que ses sujets correspondent à des requêtes réelles.

La volatilité journalière est normale — elle reflète les fluctuations de l’algorithme. Ce qui compte, c’est que la ligne de base ne décroche pas. Ici, elle tient bien, ce qui exclut une pénalité ou une perte d’indexation massive.

Champs-Élysées : le mot-clé locomotive

Les requêtes autour des Champs-Élysées génèrent le plus d’impressions, largement devant les autres. C’est une bonne nouvelle — et un risque. Bonne nouvelle parce que c’est un sujet à fort volume. Risque parce qu’une dépendance à une poignée de requêtes rend le trafic fragile face aux mises à jour d’algorithme.

Les requêtes de marque arrivent en 6e–7e position en impressions mais dominent les clics — ce qui est normal. Ce sont les requêtes les plus efficaces.

→ Diversifier le cocon sémantique au-delà des Champs-Élysées reste un axe stratégique à prioriser.

Requêtes de marque et contenu de niche

xxxxxxxxxx

90

cinema original paris

45

cinéma insolite paris

20

canal saint martin

90

Le contenu sur les cinémas insolites performe bien sur des requêtes à longue traîne. 7 710 requêtes différentes ont généré au moins un clic sur la période — la diversité sémantique est réelle.

58,5 % mobile en organique

La répartition mobile/desktop sur le trafic Google seul (58,5 % / 40,2 %) confirme la domination mobile, encore plus marquée qu’en analytics global. Chaque optimisation de vitesse ou d’ergonomie mobile a un impact direct sur le SEO.

Progression des indicateurs dans le temps

Ces chiffres couvrent l’ensemble des canaux d’acquisition — organique, direct, réseaux sociaux, référents. C’est la vision globale de l’audience, indépendamment de la source.

78,6 / 100

Score SEO technique (fév. 2026)

51,2 / 100

Score performance SEO (fév. 2026)

90,0 / 100

Performance mobile (PageSpeed)

99,0 / 100

Performance desktop (PageSpeed)

Ce que disent vraiment ces chiffres

Le score technique est passé de 71,3 en janvier 2024 à un creux à 61,1 en mars 2025, avant de remonter significativement à 81,4 en mai 2025. Depuis, il se maintient autour de 78–79, ce qui correspond à la catégorie « Good » selon les barèmes standards.

Le score de performance SEO (qui intègre les signaux d’engagement et d’indexation) est plus bas, à 51,2 — zone « Needs Improvement ». Il n’a pas suivi la même courbe haussière que le technique : les optimisations de contenu et de maillage n’ont pas encore porté leurs fruits.

→ L’écart entre score technique (bon) et score performance (moyen) pointe vers un problème de contenu : pages peu engageantes, pages zombies en masse, maillage interne insuffisant.

Courbe préoccupante : +10 500 % en 2 ans

En janvier 2024, seules 2 pages dépassaient le seuil des 600ms. Début 2026 : 211 pages. C’est la hausse la plus inquiétante du dashboard.

La croissance n’est pas linéaire — elle s’emballe à partir de mai 2025, probablement corrélée à une augmentation du volume de contenu sans optimisation parallèle des médias et des scripts.

Le temps moyen de téléchargement des pages est pourtant en baisse (89ms en mars 2025 → 77ms en février 2026), ce qui suggère que le serveur lui-même s’améliore, mais que certaines pages spécifiques deviennent de plus en plus lourdes.

→ Audit d’images prioritaire : 107 pages avec des images trop lourdes et 193 sans attribut ALT.

275 pages sans aucune activité

Le nombre de pages avec un indice zombie ≥ 20 est passé de 124 en mai 2025 à 275 en novembre 2025. Une « page zombie » est une URL qui existe dans le site mais ne reçoit aucun trafic, aucun clic depuis Google, et n’est pas pointée par des liens internes significatifs.

Ce volume élevé est problématique pour deux raisons : il dilue le budget de crawl (Googlebot passe du temps sur des pages sans valeur) et il peut signaler à Google que le site produit du contenu de faible qualité en volume.

→ Stratégie de traitement : noindex sur les pages de faible intérêt, consolidation ou suppression des doublons, redirection 301 pour les URLs orphelines.

Deux chantiers à ouvrir rapidement

Maillage interne : la courbe s’est améliorée depuis mi-2025 (taux d’erreur tombé de 70,9 % à 0,7 %), ce qui est une vraie progression. Mais 153 pages ont encore entre 0 et 3 liens internes — soit une profondeur de connexion insuffisante pour que Google les valorise correctement.

Balises title : un pic à 12 pages avec des titles de plus de 100 caractères est apparu en janvier 2024. Il a été résorbé depuis. Les titles entre 51 et 60 caractères restent la norme à respecter — trop court, vous perdez des mots-clés ; trop long, Google tronque.

✓ Point positif : uptime parfait

Le site affiche 100 % d’uptime sur 7 jours et 30 jours (Uptime Robot). Un seul incident enregistré en août 2025. La stabilité serveur est un prérequis SEO souvent négligé — ici, il est parfaitement maîtrisé.

Dernier audit

Photographie instantanée de l’état d’indexation et des scores SEO. C’est la base de diagnostic pour prioriser les chantiers techniques.

62 % des URLs génèrent des clics — c’est insuffisant

L’entonnoir d’indexation est un outil de diagnostic puissant. Voici comment lire ces chiffres :

URLs découvertes

100%

100%

Autorisées au crawl

100%

100%

Format HTML (200)

93%

93 %

Indexables

88%

88 %

Générant des clics

62%

62 %

Le vrai problème est au bas de l’entonnoir : 38 % des pages indexées ne génèrent aucun clic. Ce n’est pas un problème d’indexation technique (le robots.txt est propre, les codes HTTP sont bons) — c’est un problème de pertinence et de compétitivité des contenus.

→ Ces pages existent, Google les connaît, mais les utilisateurs ne cliquent pas. Deux causes probables : position trop basse (>20) ou title/meta description peu incitatifs.

Par famille de critères

Liens sortants externes

160

60 %

Temps de téléchargement

120

40%

Profondeur & maillage interne

80

32 %

Contenu des pages

70

30 %

Indexabilité HTML

55

5,3 %

Balise title

45

3,1 %

URLs en erreur

35

2,6 %

Meta description

20

0,2 %

343 pages au total génèrent des clics. La concentration est forte sur les 2 premières pages (55 % des clics).

8,6 pages en 404 — à corriger en priorité

Les 404 sont de l’énergie gaspillée : Googlebot les crawle, les compte, et peut en déduire que le site est mal entretenu. Les redirections 301 sont normales (migrations, URLs historiques), à condition que leurs chaînes ne soient pas trop longues (max 2 redirections en cascade).

→ Mapper les 404 pour voir si des liens internes ou externes les pointent encore. Les corriger ou les rediriger vers la page la plus pertinente.

Arborescence saine

La majorité des pages se trouvent à profondeur 2 (120 pages) et profondeur 3 (66 pages). La profondeur moyenne est de 2,04 — c’est excellent. Google accède facilement à tout le contenu sans avoir à crawler trop profond.

Détail des erreurs et avertissements

Le diagnostic granulaire — balises, images, maillage, liens sortants, zombies. C’est ici qu’on identifie précisément ce qu’il faut corriger et dans quel ordre.

⚠ Temps de chargement : 211 pages dépassent 600ms

Un temps de téléchargement élevé pénalise à la fois l’expérience utilisateur et le crawl budget. Googlebot alloue un temps limité par domaine — s’il passe ce temps sur des pages lentes, il en crawle moins. Le serveur s’améliore (77ms de temps moyen en fév. 2026), mais des pages individuelles restent très lentes.

193 pages sans ALT, 107 avec images lourdes

C’est le chantier le plus rapide à traiter avec le plus fort impact. 193 pages sans attribut ALT signifient que Google Images ne peut pas interpréter ces visuels, et que le site rate des positions sur des recherches visuelles (très importantes dans le tourisme).

Les 107 pages avec images trop lourdes contribuent directement aux 211 pages lentes. Compresser et redimensionner ces images peut faire tomber le nombre de pages lentes de moitié.

95,5 % des pages indexables sont inactives

Sur 240 pages indexables, 229 n’ont jamais été vues depuis Google (indice zombie ≥ 20). C’est un chiffre brutal. Il signifie que le site publie beaucoup de contenu qui n’attire personne — ni visiteur, ni clic en SERP.

Ce n’est pas forcément un problème de qualité rédactionnelle : c’est souvent un problème de requête cible trop concurrentielle, d’absence de maillage interne vers ces pages, ou d’une intention de recherche mal adressée.

→ Auditer page par page : supprimer, fusionner, ou retravailler l’angle éditorial.

Liens cassés en masse

144 liens en 301, 126 en erreur 500, 121 en 403 — le profil des liens sortants est problématique. Ces liens pointent vers des ressources externes qui ont bougé ou disparu.

Pourquoi c’est un problème SEO ? Google considère les liens sortants comme un signal de qualité éditoriale. Un site qui pointe vers des ressources cassées paraît mal entretenu. De plus, le PageRank transmis à ces liens est « perdu ».

130 H1 en doublon, 72 pages sans H1

Les balises de titre sont fondamentales pour signaler à Google la hiérarchie du contenu d’une page. 130 balises H1 dupliquées signifient que plusieurs pages partagent le même titre principal — Google peut avoir du mal à distinguer leur sujet respectif.

72 pages sans aucune balise H1 sont encore plus problématiques : sans H1, Google n’a pas de signal fort sur le sujet principal de la page. Ces pages méritent une correction en priorité.

Les 79 H1 vides (balise présente mais sans contenu) sont aussi à corriger — probablement des pages générées automatiquement ou des templates mal configurés.

Contenu court et metas partiellement dupliquées

77 pages « sans doute trop courtes » (taux d’erreur contenu 30 %) : sur un site de contenu touristique, des pages trop légères en texte ne peuvent pas se positionner sur des requêtes compétitives. Google favorise les pages qui traitent un sujet en profondeur.

26 meta descriptions dupliquées : la meta description n’est pas un facteur de ranking direct, mais elle influence le taux de clic (CTR). Deux pages avec la même meta donnent à l’utilisateur la même promesse — et potentiellement une impression de site peu soigné.

3,3 pages ont des metas trop courtes (<90 caractères) — c’est de l’espace de copywriting SEO non utilisé.

Priorisation des chantiers par impact

Priorité

Chantier

Volume

Impact SEO

Effort estimé

Attributs ALT manquants

193 pages

Accessibilité + Google Images + Core Web Vitals

Moyen

Images trop lourdes

107 pages

Vitesse + CWV + position mobile

Faible (compression batch)

H1 manquants ou vides

72 + 79 pages

Signaux on-page pour Google

Moyen

Liens sortants cassés

~400 liens

Qualité éditoriale perçue

Élevé

Pages zombies

229 pages

Budget crawl + dilution

Élevé (audit contenu)

H1 & titles dupliqués

130 H1 / 38 titles

Cannibalisation + clarté sémantique

Moyen

Metas courtes ou absentes

~30 pages

CTR en SERP

Faible

* Exemple de rapport suite à un audit techniqe, données croisées avec Google Analytics, Google Search Console + mes outils de SEO

Visibilité dans les moteurs IA

ChatGPT, Perplexity, Google AI Overviews — ces moteurs citent des sources dans leurs réponses. Le GEO mesure la capacité du site à être sélectionné. C’est une couche d’optimisation distincte du SEO classique, mais qui repose sur les mêmes fondations techniques.

llms.txt

Absent

⚠ À créer

Schema.org JSON-LD

Partiel

⚠ À compléter

Requêtes informationnelles

7 710

↑ Base solide

Pages avec contenu structuré

Faible

↓ Priorité haute

Autorité thématique

Émergente

→ En construction

Citations IA mesurées

N/A

→ Non suivi encore

Le suivi GEO existe — il est juste différent du SEO classique.

Pas de Search Console pour les citations IA, mais des signaux concrets : évolution des requêtes de marque en GSC, trafic direct en hausse, tests manuels sur les requêtes cibles dans ChatGPT, Perplexity et Google AI Overviews. Ce dashboard intègre les proxies mesurables dès maintenant — et un protocole de suivi direct est mis en place dès le démarrage de la mission GEO.

Chaque moteur a ses propres règles — mais une base commune

Les trois grands moteurs génératifs ne fonctionnent pas de la même façon, et ce n’est pas un détail mineur quand on pense à la stratégie de contenu.

Google AI
Overviews

C’est le moteur le plus aligné avec le SEO classique. Il valorise fortement lE-E-A-T (Expérience, Expertise, Autorité, Fiabilité) et les signaux Google habituels. Bonne nouvelle : le travail SEO déjà en place est directement réutilisable. Le score technique à 78,6 est une base correcte — mais les 229 pages zombies et les 72 pages sans H1 tirent l’autorité thématique vers le bas.

ChatGPT /
SearchGPT

S’appuie sur Bing pour ses sources. L’indexation Bing est souvent sous-estimée — vérifier la présence du site dans Bing Webmaster Tools est un prérequis. La structure des passages (réponses directes aux questions dans le corps du texte) est déterminante pour être extrait et cité.

Perplexity

Crawle en temps réel avec son propre bot (PerplexityBot). C’est le moteur le plus réactif aux changements — une optimisation produit des effets en quelques jours plutôt qu’en semaines. Vérifier que PerplexityBot n’est pas bloqué dans le robots.txt est une vérification rapide à faire immédiatement

Prérequis techniques

Fichier llms.txt

Schema Organization

Schema Article / BreadcrumbList

GPTBot autorisé (robots.txt)

PerplexityBot autorisé

Bing Webmaster Tools

Réponses directes dans le contenu

Pages piliers avec autorité thématique

Ce qu’on peut déjà lire dans les données existantes

Sans outil dédié aux citations IA, on peut construire des proxies fiables à partir de la Search Console et de GA4 :

Ce qu’on peut déjà lire dans les données existantes

Requêtes de marque en hausse — quand un site est cité dans ChatGPT ou Perplexity, les utilisateurs qui veulent en savoir plus tapent ensuite le nom de marque dans Google. Une hausse des requêtes « parisi tour » ou « parisitour » en GSC peut signaler des citations IA indirectes. À surveiller mois par mois.

Trafic direct en hausse — les utilisateurs qui voient une citation IA et tapent directement l’URL dans leur navigateur arrivent en « direct » dans GA4. Une augmentation du canal direct non explicable par d’autres facteurs peut indiquer une présence IA croissante.

7 710 requêtes informationnelles actives — c’est le signal le plus positif. Les LLMs privilégient les sites qui répondent à des questions précises. Le volume de requêtes longue traîne actives montre que le site est sur la bonne trajectoire sémantique.

→ Mettre en place un tracking UTM dédié aux liens partagés depuis les interfaces IA pour commencer à mesurer les clics entrants.

Niveau 1 sur 4

Niveau 1 — Fondations SEO présentes

Le site est correctement indexé, l’uptime est parfait, et le volume sémantique (7 710 requêtes) est une vraie base. Mais les prérequis spécifiques aux moteurs IA (llms.txt, schemas complets, réponses structurées, présence Bing) ne sont pas encore en place.

5 actions rapides pour démarrer

Priorité

Action

Moteur ciblé

Effort

Délai résultats

Créer le fichier llms.txt à la racine

Perplexity + ChatGPT

1h

1–2 semaines

Vérifier robots.txt — autoriser GPTBot, PerplexityBot, ClaudeBot

Tous

30 min

Immédiat

Ouvrir Bing Webmaster Tools + soumettre sitemap

ChatGPT / SearchGPT

2h

2–4 semaines

Implémenter Schema Organization + TouristAttraction sur les pages clés

Google AI Overviews

Moyen

4–8 semaines

Restructurer les 2–3 pages piliers avec réponses directes aux questions (format Q/R)

Tous

Moyen

4–8 semaines

Mettre en place tracking UTM + surveillance requêtes de marque en GSC

Mesure indirecte

Faible

Continu

* Exemple de rapport suite à un audit techniqe, données croisées avec Google Analytics, Google Search Console + mes outils de SEO

Votre site mérite un diagnostic précis.

9 piliers analysés. Rapport priorisé, tableau de bord Looker Studio, session de restitution incluse.