Votre site a peut-être des centaines d'erreurs SEO que Google détecte déjà — et que vous n'avez pas encore identifiées. Liens cassés, balises title dupliquées, redirections en chaîne, pages orphelines : Screaming Frog les expose tous en quelques minutes de crawl.

La plupart des guides sur Screaming Frog listent les onglets un par un. Ce guide fait l'inverse : il part du résultat concret que vous voulez obtenir — un audit technique complet — et vous montre exactement quels paramètres configurer, dans quel ordre, pour y arriver.

De l'installation au premier rapport exportable, voici la méthode pas à pas.


TL;DR — Ce qu'il faut retenir

Le plan en 5 étapes, sans superflu :

  • Screaming Frog crawle votre site comme Googlebot et remonte erreurs, redirections, duplicatas et liens brisés en quelques minutes.

  • Version gratuite : 500 URLs — suffisante pour la majorité des sites, sans inscription ni carte bancaire.

  • Quatre onglets prioritaires : Response Codes, Page Titles, Meta Description, Internal.

  • L'intégration Google Search Console croise positions réelles et données de crawl — c'est là que les opportunités de maillage se révèlent.

  • La version payante (£259/an) déverrouille le crawl illimité, le rendu JavaScript et la planification automatique.


Qu'est-ce que Screaming Frog SEO Spider ?

Screaming Frog SEO Spider est un logiciel de crawl desktop qui visite votre site exactement comme Googlebot : il suit chaque lien de page en page, collecte les codes HTTP, les métadonnées, les attributs d'image et la structure des titres, puis présente tout sous forme de tableau filtrable et exportable.

Un crawler SEO désigne tout programme qui parcourt automatiquement un site web en suivant ses liens, pour cartographier sa structure et détecter ses problèmes techniques.

Selon le Web Almanac HTTP Archive 2024, 4,67 % des pages mobiles retournent des erreurs 4xx — autant de pages qui consomment du crawl budget sans apporter de valeur indexable. Screaming Frog les identifie toutes en un seul passage. C'est l'un des premiers points d'un audit SEO technique complet.

La version 23.3, disponible depuis début 2025, améliore la prise en charge du rendu JavaScript via Chrome headless intégré et affine la détection des directives robots.txt avancées.


Installation et configuration initiale

Téléchargez l'installeur sur screamingfrog.co.uk et lancez l'exécutable. Aucune dépendance particulière n'est requise sur Windows et macOS. Sur Ubuntu, installez le paquet .deb fourni sur la page de téléchargement.

Trois réglages à ajuster avant le premier crawl

Dans Configuration > Spider, vérifiez ces paramètres avant de démarrer :

✅ Paramètres de départ recommandés

Paramètre

Valeur recommandée

Pourquoi

Crawl depth

Infini (< 5 000 pages) ou 5 (grands sites)

Évite de rater des pages profondes

User agent

Googlebot

Simule fidèlement le moteur

JS rendering

Activé si React/Vue/Angular

Révèle les URLs client-side

Dans Configuration > Exclusions, excluez les paramètres d'URL marketing (?utm_source=, ?ref=) pour éviter de crawler les mêmes pages en double et fausser vos comptages.


Les quatre onglets essentiels pour tout audit

Une fois le crawl terminé, l'interface affiche une dizaine d'onglets. Voici les quatre à ouvrir en priorité pour un audit standard :

Response Codes

Filtrez sur le code 4xx pour lister toutes vos pages introuvables, et sur 3xx pour cartographier vos redirections. Un site sain présente moins de 1 % d'erreurs. Chaque 404 non redirigé consomme du crawl budget et peut priver vos backlinks entrants de toute transmission de PageRank.

Page Titles

Cet onglet liste tous les titres avec leur longueur en pixels. Les colonnes à surveiller : Missing (titre absent), Duplicate (titre identique sur plusieurs pages) et Over 60 characters (tronqué dans les SERPs). Les titres dupliqués sont l'une des causes les plus fréquentes de cannibalisation — un problème plus courant qu'il n'y paraît et qu'il faut apprendre à détecter et corriger méthodiquement.

Meta Description

Même logique que pour les titres : identifiez les descriptions manquantes, dupliquées ou dépassant 920 pixels. Google réécrit fréquemment les méta-descriptions, mais une description originale et précise reste un signal de qualité éditorial et améliore le taux de clic organique.

Internal

Cet onglet analyse tous les liens internes de votre site. La colonne Inlinks indique combien de pages pointent vers chaque URL. Une page avec 0 inlinks est un orphelin — invisible pour Google même si elle est indexée et bien rédigée. Pour savoir quoi faire de ces données, il faut comprendre les bases du maillage interne SEO.


Votre premier audit SEO pas à pas

Voici la séquence à suivre pour un audit complet en moins d'une heure :

Étape 1 — Lancer le crawl

Saisissez l'URL racine dans la barre du haut (ex. https://monsite.fr) et cliquez sur Start. Pour un site de 200 pages, comptez 3 à 5 minutes avec le rendu JavaScript désactivé. Pour 1 000 pages avec JS rendering activé, prévoyez 20 à 30 minutes.

Étape 2 — Corriger les erreurs critiques

Allez dans Response Codes > Client Error (4xx). Exportez la liste et transmettez-la avec les URLs sources (colonne Inlinks) pour prioriser les redirections 301 les plus impactantes — celles qui reçoivent le plus de liens internes ou externes existants.

Étape 3 — Nettoyer les métadonnées

Dans Page Titles > Duplicate, chaque doublon est un candidat à la cannibalisation : réécrivez le titre de la page la moins performante, ou fusionnez les deux si le contenu est trop similaire. Même démarche pour les méta-descriptions dupliquées.

Étape 4 — Cartographier le maillage

Exportez l'onglet Internal au format CSV. Identifiez les pages avec 0 inlinks (orphelines) et celles avec plus de 100 inlinks (potentiellement sur-optimisées). Un maillage équilibré distribue le jus de lien selon votre architecture de cocon sémantique — le guide complet d'audit SEO détaille comment prioriser ces corrections.

Étape 5 — Vérifier les images

L'onglet Images liste les balises alt manquantes et les images dépassant 100 Ko. Une image sans attribut alt prive les moteurs d'un signal textuel et nuit à l'accessibilité. Exportez la liste et complétez les alt manquants par ordre de priorité trafic.


Intégrations pour enrichir les données de crawl

Screaming Frog prend toute sa dimension connecté à d'autres sources de données. Voici les trois intégrations les plus utiles en pratique :

Google Search Console

Via Configuration > API Access > Google Search Console, connectez votre propriété. Screaming Frog injecte alors les impressions, clics et positions GSC directement dans chaque ligne du tableau. Vous pouvez croiser : une page avec 0 inlinks ET 500 impressions mensuelles est une priorité absolue de maillage — elle rankait déjà sans aide.

Google Analytics 4

La connexion GA4 ajoute sessions et taux d'engagement page par page. Utile pour identifier les pages très crawlées par Google mais peu visitées par les utilisateurs — signe d'un intent mal couvert ou d'un problème d'expérience utilisateur.

PageSpeed Insights

Via Configuration > API Access > PageSpeed Insights, récupérez les scores Core Web Vitals de chaque URL sans quitter l'interface. Chaque problème de performance est ainsi associé à sa page exacte — un point crucial si vous travaillez l'optimisation de vos Core Web Vitals.

Votre audit, automatisé et gratuit

RankProof analyse votre architecture SEO et génère des articles déjà optimisés pour votre maillage existant — sans manipuler manuellement les exports Screaming Frog.

Mon premier article gratuit →

Version gratuite vs version payante

La version gratuite est limitée à 500 URLs par crawl. Pour la majorité des sites de moins de 500 pages, c'est suffisant pour un audit complet — sans inscription ni carte bancaire. Si vous gérez des sites plus larges, la comparaison des options disponibles dans notre comparatif des outils SEO gratuits peut aider à décider.

💰 Gratuit vs payant : ce que ça change concrètement

Fonctionnalité

Gratuit

Payant (£259/an)

Impact

Limite de crawl

500 URLs

Illimité

Critique pour les grands sites

Rendu JavaScript

Non

Oui

Indispensable si React/Vue/Angular

Crawl planifié

Non

Oui

Gain de temps en agence

Connexion GSC / GA4

Non

Oui

Croisement données essentiel

Extraction XPath/regex

Non

Oui

Audits personnalisés avancés

Source : Screaming Frog — Page officielle SEO Spider

La licence à £259/an est justifiée dès que vous gérez plusieurs sites ou un site de plus de 500 pages. La planification automatique — crawl hebdomadaire avec alertes email — représente à elle seule un gain de temps significatif pour les équipes en agence.

Pour un freelance ou propriétaire d'un seul site de taille modeste, la version gratuite combinée à un outil de suivi de positionnement couvre la majorité des besoins courants d'audit.


En résumé

Screaming Frog SEO Spider reste la référence pour l'audit technique depuis plus de dix ans. Sa force tient à sa capacité à agréger en un seul endroit les données de crawl, de métadonnées, de liens internes et de performance — sans compte cloud ni abonnement pour les petits sites.

La prise en main initiale demande une heure pour maîtriser les quatre onglets essentiels. Après ça, chaque crawl devient un diagnostic rapide : vous exportez, vous priorisez, vous corrigez. Les gains sont souvent visibles dans Google Search Console dans les 4 à 6 semaines suivant les corrections techniques.


Votre site dépasse 500 pages et vous voulez automatiser l'audit de votre contenu ? RankProof génère vos articles déjà optimisés pour votre maillage existant — premier article offert, sans carte bancaire →


Questions fréquentes

Screaming Frog est-il gratuit ?

Oui. La version gratuite crawle jusqu'à 500 URLs sans limite de temps ni inscription requise. La version payante (£259/an) lève cette limite et déverrouille les intégrations GSC, GA4, le rendu JavaScript et la planification automatique de crawls.

Screaming Frog fonctionne-t-il sur Mac ?

Oui. Screaming Frog SEO Spider est disponible sur Windows, macOS et Ubuntu. L'interface et les fonctionnalités sont identiques sur les trois systèmes. Téléchargez l'installeur adapté sur la page officielle screamingfrog.co.uk.

Combien de temps dure un crawl Screaming Frog ?

Un site de 200 pages se crawle en 3 à 5 minutes avec les paramètres par défaut. Avec le rendu JavaScript activé, comptez 15 à 30 minutes pour 1 000 pages. La vitesse dépend aussi de la réactivité du serveur cible.

Screaming Frog détecte-t-il le contenu dupliqué ?

Oui, via les onglets Exact Duplicates et Near Duplicates. Ces filtres comparent le contenu textuel des pages et signalent celles dont la similarité dépasse un seuil configurable — utile pour détecter la cannibalisation avant qu'elle n'affecte vos positions.

Faut-il savoir coder pour utiliser Screaming Frog ?

Non. L'interface graphique suffit pour 90 % des cas courants : audit d'erreurs, analyse de métadonnées, cartographie du maillage. Les fonctions avancées (XPath, regex, scripts) nécessitent quelques notions techniques mais restent optionnelles.

Sources