Learn
Learn
University
Community
Documentation
Support
Go to GoodData.com
Slack
All Products
Integrate a Data Source for a Data Warehouse
Growth
Enterprise
Growth
Free
French
English
French
German
Japanese (Japan)
Portuguese (Brazil)
Spanish
All Products
Integrate a Data Source for a Data Warehouse
Home
Trouver de la documentation sur votre formule GoodData
Extensions des formules d'abonnement de GoodData
Prise en main de GoodData
Conditions requises du système et navigateurs pris en charge
Learn the Platform Essentials
Portail GoodData
Essential Terms and Concepts
Work with Workspaces
GoodData Demo Workspace
Create Workspaces
Load Data
Import CSV Files into a GoodData Workspace
Integrate a Data Source into a GoodData Workspace
Integrate a Data Source for a Data Warehouse
Import Sample Data to Your Data Source
Integrate a Data Source for an Object File Storage
Create a Relationship between Datasets
Publish your Logical Data Model
Load Data from a Data Source to a GoodData Workspace
Create Metrics
Create and Save a Metric
Add Insights and Dashboards
Create an Insight
Explore and Edit Insights on Dashboards
Build Dashboards
Share GoodData
Add and Manage Users in a Workspace
Embedding Analytical Designer
Embedding Dashboards
Tableaux de bord et perceptions
Analytical Designer
Visualiser vos données
Créer des perceptions
Types de perceptions
Graphiques à barres
Graphiques à bulles
Graphiques à puces
Graphiques à colonnes
Graphiques combinés
Graphiques en anneaux
Graphiques géographiques (punaises géo)
Configurer des données pour les graphiques géographiques (punaises géo)
Titres principaux
Cartes thermiques
Graphiques en courbes
Graphiques à secteurs
Graphiques en nuage de points
Graphiques en aires empilées
Tableaux
Compartimentages
Filtres dans Analytical Designer
Filtrer des perceptions par valeurs
Filtre de classement
Filtrer des métriques par date
Activer les semaines dans les filtres de données
Trier des données dans les perceptions
Configuration des propriétés de perceptions
Travailler avec des métriques
Catalogue de données d'Analytical Designer
Renommer des métriques
Formats de nombres
Comparaison entre deux périodes
Créer des métriques dans des perceptions
Empiler des métriques
Exporter et incorporer des perceptions
Exporter des perceptions
Incorporer des perceptions
Analytical Designer - Forum aux questions
Tableaux de bord
Créer des tableaux de bord
Modifier des éléments sur les tableaux de bord
Partager des tableaux de bord
Renommer des tableaux de bord
Dupliquer des tableaux de bord
Supprimer des tableaux de bord
Ajouter une alerte à un KPI
Programmer l'envoi automatique par e-mail des tableaux de bord
Filtres des tableaux de bord
Filtres de date dans les tableaux de bord
Personnaliser des filtres de date dans des tableaux de bord
Explorer des tableaux de bord
Explorer les perceptions dans les tableaux de bord
Exploration vers un autre tableau de bord
Explorer des URL à partir de tableaux de bord
Exploration descendante des tableaux de bord
Exporter des tableaux de bord
Incorporer des tableaux de bord
FAQ : tableaux de bord
Créer des thèmes personnalisés
Propriétés des thèmes
Exemples de thème
Gérer les thèmes avec LCM
Importation de palettes de couleurs personnalisées
MAQL - Langage de requête analytique
MAQL et multidimensionnalité
MAQL et SQL
Apprendre à utiliser MAQL pour écrire des métriques
Référence d'expression MAQL
Fonctions d’agrégation
SUM
AVG
MAX
MIN
MEDIAN
COUNT
GREATEST
LEAST
Fonctions statistiques
Fonctions de variance
Fonctions de l'écart-type
Fonctions de covariance
CORREL
Fonctions des moindres carrés
Fonctions numériques
Opérations arithmétiques
ABS
SIGN
SQRT
LOG
LN
EXP
POWER
Fonction d'arrondi et de troncature
ROUND
FLOOR
CEILING
TRUNC
Classement
Variations de classement
Clause WITHIN
WHERE TOP ou BOTTOM(n) IN
WHERE TOP ou BOTTOM(n) OF
Using Ranking Filters
PERCENTILE
Mots clés de granularité
Remplacer des attributs de perception à l'aide du mot clé BY
BY
BY ALL
BY attribute ALL IN ALL OTHER DIMENSIONS
BY ALL IN ALL OTHER DIMENSIONS
BY ALL IN ALL OTHER DIMENSIONS EXCEPT FOR attribute
Transformations temporelles
Fonctions pour faire référence aux périodes antérieures
FOR Previous
FOR PreviousPeriod
Fonctions de référence pour les futures périodes de temps
FOR Next
FOR NextPeriod
FORECAST - Ajouter une courbe de tendance à un rapport
Fonctions du total cumulé
Fenêtre glissante
Totaux glissants pour les fonctions de base
Fonctions statistiques de total glissant
Expressions de filtre
Filtrage à l'aide de la clause WHERE
Opérateurs pour définir les filtres
Opérateur Est égal à
Opérateur « Est différent »
Autres opérateurs relationnels
IN
NOT IN
BETWEEN
NOT BETWEEN
Référencement des périodes flottantes
Macro THIS
Macro PREVIOUS
Macro NEXT
Ajout de variables filtrées à des définitions de métriques
Filtrage à l'aide de la clause HAVING
Remplacer des filtres parents
Filtres PARENT
Filtrage à l'aide de la clause LIKE
Fonctions logiques
IF THEN ELSE
CASE
IFNULL
Expressions logiques pour combiner les filtres
NOT
OR
AND
XAE : Extensible Analytics Engine
Extensible Analytics Engine (XAE) - FAQ
Filtres de la plateforme GoodData
Dates et heures
Hiérarchies des attributs de date
Référence d'attribut de date
Modifier le format de date
Gestion des dimensions de date personnalisées
Mise en forme des nombres dans les perceptions
Mise en forme numérique conditionnelle
Référence de mise en forme des couleurs
Intégration de données
Modélisation de données dans GoodData
Composants des modèles de données logiques dans GoodData
Ensembles de données dans les modèles de données logiques
Faits dans les modèles de données logiques
Attributs dans les modèles de données logiques
Dates dans le modèle de données logique
Points de connexion dans les modèles de données logiques
Mappage entre un modèle de données logique et la source de données
Créer manuellement un modèle de données logique
Créer un modèle de données logique à partir de fichiers CSV
Créer un modèle de données logique à partir de votre entrepôt de données sur le cloud
Création d'un modèle de données logique à partir d'un service de stockage d'objets sur le cloud
Créer un modèle de données logique à partir de l'étape de sortie
Mettre à jour un modèle de données logique
Publier un modèle de données logique
Importer et exporter un modèle de données logique
Ajouter des champs personnalisés aux LDM d'espaces de travail clients au sein du même segment
Using a Custom Time Dimension in a Logical Data Model
Créer l'étape de sortie en fonction de votre modèle de données logique
Plusieurs-à-plusieurs dans les modèles de données logiques
Performance de la modélisation plusieurs-à-plusieurs
Modélisation de données et MAQL
MAQL DDL
Change the Length of Attribute Labels
En cas de dimensions de date excessives, essayer les événements
Préparation et distribution des données
Distribution de données directe à partir d'entrepôts de données et de services de stockage d'objets
Détails de l'intégration GoodData-Stockage Azure Blob
Détails de l'intégration GoodData-Azure SQL Database
Détails de l'intégration GoodData-Azure Synapse Analytics
Détails de l'intégration GoodData-BigQuery
Détails de l'intégration GoodData-Microsoft SQL Server
Détails de l'intégration GoodData-MongoDB BI Connector
Détails de l'intégration GoodData-PostgreSQL
Détails sur l'intégration GoodData-Redshift
Détails de l'intégration GoodData-S3
Détails sur l'intégration GoodData-Snowflake
Intégrer des entrepôts de données directement dans GoodData à partir d'un LDM existant
Intégrer les données d'un compartiment Amazon S3 directement dans GoodData
Distribution automatique des données v2 pour les entrepôts de données
Modes de chargement dans la Distribution automatique des données v2 pour les entrepôts de données
Configurer la Distribution automatique des données v2 pour les entrepôts de données
Convention d'affectation de nom pour les objets de l'étape de sortie dans la Distribution automatique des données v2 pour les entrepôts de données
Créer l'étape de sortie à partir du schéma de votre entrepôt de données
Fuseaux horaires dans la Distribution automatique des données v2 pour les entrepôts de données
Distribution automatique des données v2 pour les services de stockage d'objets
Modes de chargement dans la Distribution automatique des données v2 pour les services de stockage d'objets
Configurer la Distribution automatique des données v2 pour les services de stockage d'objets
Convention d'affectation de nom pour les fichiers sources dans la Distribution automatique des données v2 pour les services de stockage d'objets
Préparation des données et pipeline de distribution
Avant de commencer à utiliser la préparation des données et pipeline de distribution
Phases de construction du pipeline de données
Construire votre pipeline de données
Exportation et importation du pipeline de données
Références Pipeline de données
Références Briques
Configurer une brique
Téléchargeurs
Téléchargeur CSV
Données d'entrée pour téléchargeur CSV
Fichier manifeste
Fichier fil
Téléchargeur Google Analytics
Téléchargeur de feuilles de calcul Google Sheets
Téléchargeur Salesforce
Téléchargeur SQL
Intégrateurs
Intégrateur ADS
Champs calculés
Exécuteurs
Exécuteur SQL
Utilitaires
Schedule Execution Brick
Utilitaire de renommage des objets
Créateur de champs personnalisés
Chargeur de dimension de date
Références Entrepôt de données
Data Warehouse
Démarrage rapide de Data Warehouse
Data Warehouse et le flux de données de la plateforme GoodData
Utilisation prévue de Data Warehouse
Data Warehouse et Vertica
Architecture du Data Warehouse
Technologie de Data Warehouse
Modèle logique et physique du Data Warehouse
Conception du schéma de base de données
Conception de schéma logique - tableaux et vues
Clés primaires et étrangères
Modification du schéma logique
Conception du schéma physique - projections
Encodage des colonnes et compression
Ordre de tri des colonnes
Segmentation
Configuration de la superprojection initiale avec la commande CREATE TABLE
Création d'une nouvelle projection avec la commande CREATE PROJECTION
Modification du schéma physique
Stockage des colonnes et compression dans le Data Warehouse
Ports utilisés pour la connexion à GoodData
Interrogation du Data Warehouse
Limitations et différences de Data Warehouse par rapport aux autres SGBDR
Schéma unique par instance Data Warehouse
Aucun accès Admin Vertica
Utiliser COPY FROM LOCAL pour charger les données
Utilisation de COPY FROM S3 pour charger les données
Fonctions non prises en charge
Accès limité aux tables système
Accès limité aux fonctions spatiales
Limites des tables flex
Outil Database Designer non disponible
Limitations du pilote JDBC
Limitations de ressource
Autres limitations
Meilleures pratiques pour les entrepôts de données
Comprendre les codes d'erreur Vertica
Référence d'API de Data Warehouse
Utilisation des instances de Data Warehouse
Création d'une instance Data Warehouse
Page de détails de l'instance Data Warehouse
Consultation de vos instances Data Warehouse
Déprovisionner votre instance Data Warehouse
Gestion des utilisateurs et des droits d'accès
Rôles utilisateur Data Warehouse
Obtention d'une liste d'utilisateurs Data Warehouse
Ajout d'un utilisateur dans Data Warehouse
Modification d'un rôle utilisateur dans l'instance Data Warehouse
Examen des détails de l'utilisateur de Data Warehouse
Suppression d'un utilisateur de Data Warehouse
Exporter des données d'un entrepôt de données
Configuration d'une connexion à Data Warehouse
Connexion au Data Warehouse depuis des outils client SQL
Télécharger le pilote JDBC
Version du pilote Data Warehouse
Activer la journalisation pour le pilote JDBC
Préparer la chaîne de connexion JDBC
Accéder au Data Warehouse depuis le SQL SQuirrel
Connexion au Data Warehouse depuis Java
Connexion au Data Warehouse depuis JRuby
Installer JRuby
Accéder au Data Warehouse à l'aide de la bibliothèque Sequel
Installation d'une connexion de base de données pour Ruby
Installation de la prise en charge JRuby pour le Data Warehouse
Exemple de code Ruby pour le Data Warehouse
Références Distribution automatique de données
Distribution automatique des données
Utiliser la distribution automatique des données
Supprimer les données des ensembles dans Distribution automatique des données
Convention d'affectation des noms pour les objets de l'étape de sortie
Fuseaux horaires dans Distribution automatique des données
Configurer des processus de chargement de données
Références Console d'intégration de données
Accès à la console d'intégration des données
Écran de présentation de la console d'intégration des données
Écran des projets de la console d'intégration des données
Créer une source de données
Partager une source de données avec d'autres utilisateurs
Supprimer une source de données
Déployer un processus de chargement de données pour la Distribution automatique des données v2
Déployer un processus pour une brique de pipeline de données
Déployer un processus pour une brique LCM (gestion du cycle de vie)
Planifier un chargement de données
Planification d'un processus de chargement de données pour un groupe d'espaces de travail
Modifier un chargement de données planifié
Explore Advanced Options of a Scheduled Data Load
Configurer des paramètres de planification
Configuration de l'ordre de la planification
Planifier un chargement de données pour une exécution manuelle uniquement
Prévoir un processus de chargement de données planifié
Configurer une retentative automatique suite à l'échec d'un processus de chargement de données
Exécuter à la demande un processus de chargement de données planifié
Désactiver un processus de chargement de données planifié
Consulter un journal d'exécution de chargement de données
Créer une règle de notification pour un processus de chargement de données
Supprimer une règle de notification d'un processus de chargement de données
Réutiliser des paramètres dans plusieurs processus de chargement de données
Supprimer un chargement de données planifié
Charger des fichiers CSV sur votre espace de travail
Paramètres requis d'un fichier CSV
Charger des fichiers CSV sur un espace de travail avec LDM Modeler
Mettre à jour les données d'un ensemble de données dans un fichier CSV
Références Chargements de données supplémentaires
Liste blanche d'IP
Chargement de données via l'API REST
Suppression des anciennes données lors du chargement des nouvelles données dans un ensemble de données via API
Transformer les données pour les prévisions et recommandations de lots
Fonctions de préparation et d'évaluation des données
Stockage de données spécifique à un espace de travail
Stockage de données spécifique de l'utilisateur
Plans
Plans du pipeline de données
Plan ELT
FAQ sur le plan ELT
Suppression des enregistrements des ensembles de données
Administration des utilisateurs et des espaces de travail
Administrer des projets et objets de projets
Trouver l'ID d'un espace de travail
Trouver le jeton d'autorisation d'un espace de travail
Déterminer le moteur de base de données avec lequel un espace de travail est exécuté
Trouver le nom de projet
Renommer un projet
Cloner un projet
Valider un espace de travail
Créer un espace de travail
Passage d'un espace de travail à un autre
Quitter un espace de travail
Supprimer un espace de travail
Définir un fuseau horaire personnalisé pour un espace de travail
Supprimer des données d'un espace de travail
Accéder aux pages grises d'un espace de travail
Migrer des objets sélectionnés entre des espaces de travail
Acquisition des identificateurs d'objets pour les métadonnées du projet
Configurer différentes fonctionnalités à l'aide des paramètres de plateforme
Outil d'extension GoodData pour Chrome
Mutualisation sur la plateforme GoodData
Gérer des espaces de travail via LCM (Gestion du cycle de vie)
Implémentation de LCM
Configuration de LCM via API
Briques
Brique de publication
Brique de déploiement
Brique d'approvisionnement
Brique utilisateur
Brique de filtres utilisateurs
Comment utiliser une brique
Spécification des paramètres complexes
Types de sources de données d'entrée
Gérer les données d'un espace de travail et l'accès aux données
Gestion des ensembles de données
Ajouter une balise à un ensemble de données
Gestion des attributs
Ajouter une balise à un attribut
Découverte des libellés d'attributs et des chemins d'exploration
Trouver où un attribut est utilisé
Déterminer l'ID de valeur d'attribut
Attributs calculés
Gestion des faits
Ajouter une balise à un fait
Gestion des métriques
Ajouter une balise à une métrique
Gestion des variables
Afficher un modèle d'espace de travail
Utilisation des balises
Prise en main des droits d'accès aux données
Cas d'utilisation avancés de droits d'accès aux données
Créer des droits d'accès aux données pour des périodes de temps continues
Autorisation de modification des métriques, rapports et tableaux de bord du projet
Utilisation de variables pour contrôler la visibilité des données
Variables numériques et variables filtrées
Définir des variables numériques
Incorporation de variables numériques dans les espaces de travail
Define Filtered Variables
Incorporating Filtered Variables at the Metric Level
Mise à jour de la variable à l'aide de l'API REST
Gérer les utilisateurs d'un espace de travail
Provisionnement des utilisateurs aux domaines et aux projets
Rôles utilisateur
Autorisations d'accès aux rôles utilisateur
Créer un rôle utilisateur personnalisé
Utilisation de la brique utilisateurs pour provisionner les utilisateurs dans vos projets
Gérer les profils des membres d'un espace de travail
Trouver l'ID de l'utilisateur
Mettre à jour un e-mail utilisateur
Utilisation de groupes pour partager des tableaux de bord avec plusieurs utilisateurs
Invitation d'utilisateurs avec des droits d'accès aux données pré-appliqués
Désactiver ou supprimer des utilisateurs
Définir un format numérique par défaut pour votre compte utilisateur
GoodSuccess : données d'analyse de l'utilisation de GoodData
Développer la plateforme GoodData
Présentation de la plateforme GoodData
Conseils pour la performance
Performances de Data Warehouse
Éviter les opérations UPDATE inutiles
Check for Invalid Views
Ne pas surnormaliser votre schéma
Conseils généraux pour la conception des projections
Minimiser les associations de réseau
Choisir des critères de tri de projection
Conserver la projection prédéfinie dans les requêtes
Bénéficier des partitions de tables
Utiliser des tables de contrôle
Utiliser Run Length Encoding (RLE)
Utiliser le mot-clé EXPLAIN
Écrire des mises à jour de données volumineuses directement sur le disque
Signaler un problème de performance
Limites de la plateforme
Votre domaine GoodData
Centre de données GoodData
Sauvegarde des données
Événements de la plateforme d'audit
Types de jetons GoodData
Expiration de la session SST
Intégration de GoodData à votre application
Définition d'une marque blanche pour votre domaine
Configuration des en-têtes et pieds de page personnalisés pour les exportations de rapports PDF
Configurer DKIM pour l'e-mail sortant
Domaines par défaut et personnalisés
Modèles d'e-mail
Foire aux questions concernant la marque blanche
Définir une marque blanche pour un nouveau domaine
Définir une marque blanche pour un domaine existant
Définissez un CNAME et obtenez un certificat TLS
Choisir un administrateur de domaine
Lancement coordonné
Personnaliser le domaine de marque blanche
Incorporation d'éléments GoodData dans vos applications
Disponibilité des fonctions en mode incorporé et non incorporé
Analytical Designer Incorporé
Communication avec Analytical Designer incorporé
Incorporer un tableau de bord de KPI
Communication avec des tableaux de bord de KPI incorporés
Incorporation de formats de code
Aligner des sessions entre votre application et GoodData
Configuration des événements pour l'exploration dans Analytical Designer incorporé et les tableaux de bord de KPI
Capturer l'événement enregistrer une perception dans l'Analytical Designer intégré
Exemple de HTML pour les événements d'exploration
Configuration de l'authentification utilisateur et de SSO
Aperçu de l'authentification unique
SSO SAML avec GoodData
Configuration de l'authentification unique Fluig
Configuration de l'authentification unique Okta
Configurer l'authentification unique avec Auth0
Configuration du fournisseur d'identité à l'aide de Salesforce
Configuration de Windows Server avec AD FS pour GoodData SAML SSO
Utiliser l'approvisionnement d'utilisateurs juste à temps pour SAML dans un environnement SSO SAML
Utiliser le système pour l'approvisionnement d'utilisateurs de gestion d'identité multi-domaine dans un environnement SSO SAML
Authentification unique PGP de GoodData
Comment générer une paire de clés publique/privée
Localisation de métadonnées
Référence d'API
Journal des modifications et information de version d'API
SDK de GoodData
Client HTTP Java de GoodData
Sécurité et conformité de la plateforme
Security Shield
Protocoles de sécurité et chiffrements TLS pris en charge
Fonctionnalité d'emprunt d'identité
Stratégie de mot de passe
Pare-feu
Glossaire GoodData
Ressources supplémentaires
Fonctionnalités obsolètes
Ressource API identifiants Amazon S3
Ressource API de téléchargement des données
Adresses IP utilisées pour le chargement des données
Explorateurs interactifs
Java SDK Versions 2.32.0 et antérieures
JDBC Driver Version 3.0.2 à 3.1.2
Ancienne méthode SSO Salesforce
Méthode PGP SSO GET
Clé publique SSO PGP
Modèles de projet
SFTP pour le chargement de données sur la plateforme GoodData
Signature SHA-1 pour SAML
Support de TLS Version 1.0 et 1.1
Type d'objet de visualisation dans les métadonnées du projet
Téléchargements
Dépannage
Problèmes d'incorporation
Notes de publication
You are viewing our older product's guide. Click
here
for the documentation of GoodData Cloud, our latest and most advanced product.
Integrate a Data Source for a Data Warehouse
Cette page n'est disponible qu'en anglais.
Import Sample Data to Your Data Source