Analyse de Logs + crawl

Analyse de Logs + crawl

Comprendre le fonctionnement d’un moteur de recherche.

Formation-analyse-de-logs-crawl

Objectif de la formation

  • Déployer un outil de monitoring pour surveiller le crawl des bots et des codes réponses.
  • Evaluer la capacité des moteurs de recherche à crawler et indexer son site
  • Surveiller le comportement des moteurs suite à des optimisations SEO.

A qui s’adresse la formation

  • Référenceurs expérimentés
  • Webmaster
  • Consultant Search
  • Chef de projet Webmarketing

Prérequis de la formation

  • Connaissances de base du SEO

Délai d’inscription

  • Vous avez jusqu’à une semaine avant la date de session de formation

Sessions et tarif

  • Mercredi 30 novembre 2022
  • Une journée complète
  • 780€ HT

Financement possible par votre OPCO N° de déclaration d’activité : 11922310592

Certification Qualiopi
Au titre : d’Action de formation

Accessibilité au bâtiment aux personnes à mobilité réduite

Contenu de la formation

  • Comprendre le fonctionnement d’un moteur de recherche
  • Anatomie d’un moteur de recherche
  • Que sont le crawl et l’indexation
  • Principes de l’algorithme de classement
  • Les enseignements  de l’analyse de logs
  • Identifier les informations nécessaires  dans les logs
  • Monitorer le passage des bots sur votre site
  • Relever les rescodes
  • Identifier les urls les +/- crawlées
  • Obtenir les pages orphelines
  • Des graphiques pour une vision  évolutive du comportement  des bots
  • Le volume de crawl (URLs uniques ou nouvelles) et le bad crawl
  • Le crawl et les visites par rescodes
  • Les visites, le taux de pages actives et les  nouvelles pages avec visites
  • Les pages inactives crawlées et non visitées
  • La durée entre le dernier crawl et la visite faite  sur votre page
  • La fenêtre de crawl
  • Analyse de cas
  • Recommandations et axes de renforcement
  • Surveiller votre crawl
  • Mettre en place un système d’alerte  de variation des indicateurs
  • Catégoriser vos URLs pour analyser  par type de pages ou univers
  • Catégoriser les bots pour surveiller  l’activité des moteurs
  • Historiser vos données pour comprendre  indexation et positionnement
  • Monter son analyseur de logs
  • Installer un outil issu de Linux
  • Awk / Nawk, Elasticsearch, Logstash,  et Kibana
  • Mettre en place la récupération des données  automatiquement
  • Atelier
  • Installation et recommandations

Formation à distance par visioconférence

Une question, une inscription ? Contactez-nous.