Comment exploiter et intégrer les données Piano Analytics dans des outils externes ?
Piano Analytics offre plusieurs façons d'utiliser vos données dans des outils externes (plateformes BI, data lakes, applications personnalisées, etc.). Selon le niveau de détail dont vous avez besoin (rapports agrégés vs données d'événements brutes), le volume attendu et la fréquence de mise à jour souhaitée, vous pouvez choisir entre l'API de reporting / exports Data Query, Data Flow ou Data Sharing.
1) API de reporting (via Data Query)
L'API de reporting vous permet d'extraire des jeux de données avancés que vous avez construits dans Data Query (propriétés, métriques, segments, période). Elle est accessible depuis n'importe quel outil capable d'effectuer des requêtes HTTP (scripts, Postman, Curl, outils ETL, etc.).
Cas d'utilisation typiques :
Alimenter un outil BI (Power BI, Tableau, Looker, etc.) avec des jeux de données analytiques agrégés
Automatiser des extractions récurrentes basées sur des configurations Data Query
Comment ça fonctionne
Construisez le jeu de données dans Data Query (propriétés/métriques/segments/période).
Copiez l'appel API généré depuis l'interface Data Query.
Authentifiez-vous en utilisant une clé API (paire clé d'accès / clé secrète) créée depuis votre profil Piano Analytics.
Exécutez l'appel depuis votre outil externe.
Principales limitations (API v3 / API de reporting)
Limites de lignes : 10 000 lignes par appel, avec la possibilité d'aller jusqu'à 200 000 lignes avec la pagination.
Limite de colonnes : jusqu'à 50 éléments dans le paramètre
columnspar requête.Limite de segmentation : jusqu'à 6 segments par requête.
Limites de concurrence : jusqu'à 5 appels simultanés par utilisateur et 20 par organisation.
Veuillez vous référer à notre documentation Comment fonctionne l'API. Si votre cas d'utilisation dépasse ces limites (extractions très volumineuses, rafraîchissement fréquent ou besoins d'événements granulaires/bruts), utilisez les exports avancés de Data Query, Data Flow ou Data Sharing.
2) Exports Data Query (exports de fichiers)
Les exports Data Query vous permettent d'exporter les résultats de requêtes sous forme de fichiers (par exemple, pour utiliser dans Excel, télécharger vers un autre outil ou ingérer dans un pipeline externe).
Les exports programmés sont une option pratique lorsque votre outil externe peut ingérer des fichiers (SFTP/S3) mais ne prend pas en charge l'intégration API directe.
Selon votre configuration et vos options contractuelles, les exports peuvent aller de 10 000 lignes jusqu'à toutes les lignes d'une requête.
Exports programmés : vous pouvez planifier des exports (horaires/quotidiens/hebdomadaires/mensuels selon votre configuration) livrés sous forme de GZIP contenant un fichier CSV.
Les cibles de livraison courantes incluent : FTP / sFTP et Amazon S3 (AWS Bucket)
3) Data Flow (en option)
Data Flow est conçu pour des exports à grande échelle, granulaires et exhaustifs — généralement pour alimenter un data lake ou une plateforme analytique où vous combinez les données Piano avec d'autres sources.
Utilisez Data Flow lorsque vous avez besoin d'une livraison continue à haut volume et que vous voulez un contrôle total de la transformation/modélisation en dehors de Piano Analytics.
Comment fonctionne Data Flow
Exporte des fichiers contenant tous les événements collectés à une fréquence régulière : 15 / 30 / 60 minutes
Prend en charge des formats d'export tels que CSV, JSON ou Parquet
Les options de livraison incluent généralement FTP/sFTP, S3 ou Google Cloud Platform, selon votre configuration
Considérations importantes
Data Flow exporte des données d'événements brutes/granulaires. Ce n'est pas un export de "reporting".
Les métriques natives et personnalisées ne sont pas exportées dans Data Flow. Si vous avez besoin de ces valeurs, vous retraitez généralement les données brutes en externe en utilisant les mêmes définitions que celles que vous utilisez dans l'interface.
4) Data Sharing (en option)
Data Sharing vous permet d'interroger vos données Piano Analytics directement en utilisant SQL dans Snowflake, qui est la technologie sous-jacente utilisée pour le stockage des données.
Cette option est destinée aux équipes qui souhaitent travailler directement au niveau de la base de données et tirer parti des outils Snowflake et des connecteurs de son écosystème (accès SQL direct aux tables brutes, intégration facile avec de nombreux outils tiers via les connecteurs natifs Snowflake).
Modes d'accès
Un Compte Lecteur dans l'environnement Snowflake de Piano Analytics, ou
Partage de données sécurisé entre votre compte Snowflake et l'environnement Snowflake de Piano (si vous avez votre propre Snowflake)
Actualisation
Data Sharing est conçu pour un accès quasi temps réel, généralement avec un court délai de traitement (souvent quelques minutes).