Comment exclure des comportements robots sans adresse IP depuis Data Management ?
Pour des raisons de confidentialité, les adresses IP ne sont pas accessibles ni partagées. Cet article montre comment exclure les comportements de robots depuis l'interface Data Management, sans manipuler les adresses IP.
Créer une règle d'exclusion dans Data Management
Allez dans l'interface pour créer une règle d'exclusion :
Data Management → Configuration → Exclusions → Créer une exclusion
Choisir la portée
Choisissez si votre exclusion s'appliquera à un ou plusieurs sites.Choisir une ou plusieurs propriétés d'identification
Sélectionnez des propriétés spécifiques au trafic inhabituel que vous souhaitez exclure, telles que :Ville
Organisation / Organisation de connexion
FAI
Navigateur / Version du navigateur
User Agent
URL de l'événement / URL de la page
Source de trafic (lorsque disponible dans vos données)
Astuce : Le trafic de bots devient souvent identifiable de manière fiable lorsque vous combinez plusieurs propriétés (par exemple, Navigateur + Organisation de connexion), plutôt que d'exclure sur une seule condition large qui pourrait supprimer des visites légitimes.
Récupérer la bonne
property_keyde votre Data Model
Utilisez votre Data Model pour récupérer laproperty_keyque vous utiliserez dans l'exclusion.
Par exemple, si vous voulez exclure le trafic de la ville de Paris, vous devrez utiliser la property_key city pour cette propriété, que vous utiliserez ensuite dans votre règle d'exclusion basée sur le Paramètre de tag.
Ajouter des conditions pour affiner la règle
Accumulez vos critères (en cliquant sur Ajouter une condition) pour que votre règle corresponde au mieux à votre trafic inhabituel.
Exemple d'approche :
Exclure un
User-AgentsuspectET exclure le trafic d'une
Organisation de connexionspécifiqueET restreindre l'exclusion à certaines pages ou URLs lorsque possible
Notes importantes et pièges courants
Les exclusions ne sont pas rétroactives
Les règles d'exclusion s'appliquent à l'avenir ; elles ne modifient pas les données historiques déjà traitées.
Si vous avez besoin de corriger des données historiques, cela nécessite un service de retraitement des données (facturable). Contactez l'équipe support et soyez prêt à fournir : le(s) site(s) concerné(s), la plage de dates exacte à retraiter.
Utiliser des propriétés disponibles dans le tag (pas uniquement des propriétés calculées)
Certaines propriétés sont calculées pendant le traitement et ne sont pas disponibles "dans le tag". Ces propriétés ne peuvent pas être utilisées comme conditions d'exclusion.
Par exemple, visit_entrypage est calculée pendant le traitement et ne peut pas être utilisée dans les exclusions. Si vous voulez exclure en fonction du comportement d'arrivée/entrée, utilisez plutôt une propriété disponible dans le tag comme page (ou d'autres propriétés d'URL/page disponibles dans votre implémentation).
Laisser le temps aux changements de prendre effet
Après avoir créé ou modifié une exclusion, laissez un peu de temps (maximum 20min) pour que la règle prenne effet dans les données nouvellement collectées/traitées, puis surveillez vos rapports pour confirmer le changement.
Éviter la sur-exclusion
Lors de l'exclusion de trafic suspect, gardez les conditions aussi spécifiques que possible pour éviter de supprimer de vrais utilisateurs. Si le modèle de bot est incertain, commencez par des critères plus étroits et élargissez avec prudence au fur et à mesure que vous confirmez le comportement.