[Vidéo] Screaming Frog : présentation et paramétrage

De tous les outils SEO, Screaming Frog est probablement l’un des plus connus et plus utilisés au monde. Ce crawler (ou spider) permet de parcourir un site (ou une liste d’URL) à la manière d’un bot ou d’un moteur de recherche, et d’en analyser littéralement toutes les caractéristiques techniques, afin de dresser des listes de mesures et d’anomalies, et de permettre d’appliquer d’éventuels correctifs.

Mais Screaming Frog est aux consultants SEO ce qu’Excel est aux contrôleurs de gestion : un outil souvent mal utilisé, dont les utilisateurs ne maîtrisent que 10% (ou moins) de ses innombrables possibilités.

Je vous propose une série de vidéos, afin d’en découvrir les rouages : dans ce premier opus, présentation de l’interface et configuration de l’outil !

Dans le cadre de ce tutoriel vidéo qui balaye l’ensemble des éléments constituant le logiciel, plusieurs aspects de Screaming Frog sont explorés et détaillés :

  • Présentation de Screaming Frog
    • Introduction aux fonctions de base et au fonctionnement du crawler
    • Description des capacités de l’outil à identifier les problèmes techniques pour améliorer le SEO
    • Présentation de l’interface utilisateur et des quatre zones fonctionnelles
  • Analyse des données
    • Exploration des principaux onglets (partie haute)
    • Fonctionnalités et filtres applicables, fonctions d’exportation
    • Visualisation des données agrégées et détaillées (partie basse)
    • Détail des onglets relatifs aux analyses des problèmes et rapports avancés (partie droite)
    • Introduction à la segmentation et son intérêt pour l’analyse technique
    • Présentation de certains outils spécifiques d’analyse
  • Paramétrage de Screaming Frog
    • Options de stockage des données selon vos usages
    • Choix du mode de fonctionnement du crawler adapté à divers besoins (Spider, Liste, SERP, Comparaison)
    • Fonctionnalités d’exportation et de génération de sitemaps
  • Personnalisation et configuration
    • Configuration des profils de crawl pour des CMS spécifiques tels que WordPress ou Prestashop
    • Réglages divers dans les onglets de configuration pour ajuster le comportement du crawler
    • Utilisation des visualisations en 2D et 3D pour analyser le maillage interne
    • Capacité à limiter le nombre d’URL crawlées ou à les restreindre par chemin, utile pour les grands sites.
    • Ajustement des paramètres avancés comme la gestion des cookies et les délais de réponse.
    • Options pour mesurer la duplication de contenu et ajuster la détection des balises non descriptives
    • Création d’un robot.txt virtuel pour tester des clauses sans affecter le crawl de Google
  • Personnalisation des recherches et des extractions
    • Utilisation de recherches personnalisées pour vérifier des éléments spécifiques comme les marqueurs Google Analytics
    • Détection de la position des liens (avec la possibilité de recalculer le PageRank selon l’algorithme du surfeur raisonnable)
    • Connexion aux APIs comme Google Analytics, Search Console et PageSpeed Insights pour une analyse plus poussée

Bien entendu, il ne s’agit que d’une introduction à tous ces éléments, puisque les prochaines vidéos détailleront chacune des parties, et couvriront des utilisations avancées de l’outil, jamais vues auparavant en ligne. Stay tuned !

Voir tous les articles de la catégorie Techniques de référencement

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut