Skip to main content
Skip table of contents

Comment exclure des comportements robots sans adresse IP depuis Data Management ?

Pour des raisons de confidentialité, les adresses IP ne sont pas accessibles ni partagées. Cet article montre comment exclure les comportements de robots depuis l'interface Data Management, sans manipuler les adresses IP.

Créer une règle d'exclusion dans Data Management

Allez dans l'interface pour créer une règle d'exclusion :
Data ManagementConfigurationExclusionsCréer une exclusion

  1. Choisir la portée
    Choisissez si votre exclusion s'appliquera à un ou plusieurs sites.

  2. Choisir une ou plusieurs propriétés d'identification
    Sélectionnez des propriétés spécifiques au trafic inhabituel que vous souhaitez exclure, telles que :

    • Ville

    • Organisation / Organisation de connexion

    • FAI

    • Navigateur / Version du navigateur

    • User Agent

    • URL de l'événement / URL de la page

    • Source de trafic (lorsque disponible dans vos données)

Astuce : Le trafic de bots devient souvent identifiable de manière fiable lorsque vous combinez plusieurs propriétés (par exemple, Navigateur + Organisation de connexion), plutôt que d'exclure sur une seule condition large qui pourrait supprimer des visites légitimes.

  1. Récupérer la bonne property_key de votre Data Model
    Utilisez votre Data Model pour récupérer la property_key que vous utiliserez dans l'exclusion.

Par exemple, si vous voulez exclure le trafic de la ville de Paris, vous devrez utiliser la property_key city pour cette propriété, que vous utiliserez ensuite dans votre règle d'exclusion basée sur le Paramètre de tag.

  1. Ajouter des conditions pour affiner la règle
    Accumulez vos critères (en cliquant sur Ajouter une condition) pour que votre règle corresponde au mieux à votre trafic inhabituel.

Exemple d'approche :

  • Exclure un User-Agent suspect

  • ET exclure le trafic d'une Organisation de connexion spécifique

  • ET restreindre l'exclusion à certaines pages ou URLs lorsque possible

Notes importantes et pièges courants

Les exclusions ne sont pas rétroactives

Les règles d'exclusion s'appliquent à l'avenir ; elles ne modifient pas les données historiques déjà traitées.
Si vous avez besoin de corriger des données historiques, cela nécessite un service de retraitement des données (facturable). Contactez l'équipe support et soyez prêt à fournir : le(s) site(s) concerné(s), la plage de dates exacte à retraiter.

Utiliser des propriétés disponibles dans le tag (pas uniquement des propriétés calculées)

Certaines propriétés sont calculées pendant le traitement et ne sont pas disponibles "dans le tag". Ces propriétés ne peuvent pas être utilisées comme conditions d'exclusion.
Par exemple, visit_entrypage est calculée pendant le traitement et ne peut pas être utilisée dans les exclusions. Si vous voulez exclure en fonction du comportement d'arrivée/entrée, utilisez plutôt une propriété disponible dans le tag comme page (ou d'autres propriétés d'URL/page disponibles dans votre implémentation).

Laisser le temps aux changements de prendre effet

Après avoir créé ou modifié une exclusion, laissez un peu de temps (maximum 20min) pour que la règle prenne effet dans les données nouvellement collectées/traitées, puis surveillez vos rapports pour confirmer le changement.

Éviter la sur-exclusion

Lors de l'exclusion de trafic suspect, gardez les conditions aussi spécifiques que possible pour éviter de supprimer de vrais utilisateurs. Si le modèle de bot est incertain, commencez par des critères plus étroits et élargissez avec prudence au fur et à mesure que vous confirmez le comportement.

JavaScript errors detected

Please note, these errors can depend on your browser setup.

If this problem persists, please contact our support.