Comment repérer les robots, les comportements anormaux et les exclure ?
Il n'existe pas de moyen simple d'attester officiellement qu'il s'agit de trafic de bots. Cependant, certains signes peuvent vous alerter :
1 seule page vue par visite
Pas de temps passé par visite (0 seconde) ou temps passé anormalement bas (par exemple, quelques secondes sur de nombreuses visites)
1 visiteur unique = 1 visite
Source = Trafic direct uniquement (souvent sans URL de référence)
Pic soudain sur un jour/une heure donnée (ou autres schémas de "pics" non naturels)
Schémas cohérents d'appareils/navigateurs (par exemple, le même type d'appareil et de navigateur répété sur un grand volume de visites)
FAI / organisation connectée inhabituelle (par exemple, des centres de données ou des fournisseurs d'hébergement)
Géographie inattendue (par exemple, trafic provenant d'un pays sans rapport ou d'une ville inhabituelle par rapport à votre audience normale)
Essayez de cibler l'activité des bots autant que possible :
Quelle(s) page(s) est/sont ciblée(s) (par exemple, une seule page d'entrée sans raison claire) ?
Quel navigateur et/ou système d'exploitation ?
Quelle ville/pays ?
Quelle organisation/FAI ?
Ce que Piano exclut déjà automatiquement
Piano s'appuie sur des signaux d'identification de bots standard de l'industrie, y compris la liste internationale IAB/ABC Spiders and Bots list (mise à jour fréquemment), pour exclure les bots connus basés sur des identifiants tels que l'user-agent, l'adresse IP et/ou les informations réseau.
De plus, un trafic extrêmement anormal peut être automatiquement signalé comme non-humain. Par exemple, les visites générant plus de 250 000 événements sont automatiquement détectées et traitées comme du trafic de bot.
Comme de nouveaux crawlers et sources d'automatisation apparaissent régulièrement, tout le trafic non-humain n'est pas immédiatement couvert par les listes standard — en particulier lorsque les bots imitent des navigateurs courants ou varient leurs schémas.
Exclure le trafic suspect
Règle Data Management
La plupart du temps, le trafic peut être exclu via une règle d'exclusion Data Management basée sur une combinaison de critères. Il est plus facile d'utiliser cette méthode si le bot utilise une version de navigateur ancienne/inhabituelle et/ou si le bot est situé dans une ville inhabituelle (c'est-à-dire, une petite ville américaine alors que tout le trafic du site est situé en France).
Propriétés les plus couramment utilisées :
cityorganisation(organisation connectée / FAI)user agent
Des propriétés supplémentaires (comme le système d'exploitation ou la catégorie d'appareil) peuvent aider à affiner les exclusions pour réduire le risque de filtrer des utilisateurs légitimes.
Considérations importantes
Les exclusions ne sont pas rétroactives : elles s'appliquent aux événements collectés après la création de la règle.
Si vous avez besoin de corriger des données historiques, vous pourriez avoir besoin d'une régénération des données, veuillez contacter l'équipe support (il s'agit généralement d'un service payant).
Soyez prudent : des règles trop larges (par exemple, exclure une ville ou un pays entier) peuvent supprimer du trafic légitime.