Learn
Learn
University
Community
Documentation
Support
Go to GoodData.com
Slack
All Products
Release Notes
Enterprise
Enterprise
Growth
English
English
French
German
Japanese (Japan)
Portuguese (Brazil)
Spanish
All Products
Release Notes
Overview
Home
Finden Sie Unterlagen zu Ihrem GoodData-Abonnement
GoodData Abonnement Add-Ons
Erste Schritte mit GoodData
Systemanforderungen und unterstützte Browser
Learn the Platform Essentials
GoodData-Portal
Essential Terms and Concepts
Work with Workspaces
GoodData Demo Workspace
Create Workspaces
Load Data
Import CSV Files into a GoodData Workspace
Integrate a Data Source into a GoodData Workspace
Integrate a Data Source for a Data Warehouse
Import Sample Data to Your Data Source
Integrate a Data Source for an Object File Storage
Create a Relationship between Datasets
Publish your Logical Data Model
Load Data from a Data Source to a GoodData Workspace
Create Metrics
Create and Save a Metric
Add Insights and Dashboards
Create an Insight
Explore and Edit Insights on Dashboards
Build Dashboards
Share GoodData
Add and Manage Users in a Workspace
Embedding Analytical Designer
Embedding Dashboards
Dashboards und Betrachtungen
Analytical Designer
Visualisieren Ihrer Daten
Betrachtungen erstellen
Betrachtungstypen
Balkendiagramme
Blasendiagramme
Bullet-Diagramme
Säulendiagramme
Kombo-Diagramme
Ringdiagramme
Geo-Diagramme (Markierungspins)
Daten für Geo-Diagramme (Markierungspins) konfigurieren
Titelzeilen
Heatmaps
Liniendiagramme
Kreisdiagramme
Punktdiagramme
Gestapeltes Flächendiagramm
Tabellen
Baumkarte
Filter im Analytischen Designer
Betrachtungen nach Werten filtern
Rangfilter
Metriken nach Datum filtern
Wochen im Datumsfilter aktivieren
Daten in Betrachtungen sortieren
Betrachtungseigenschaften konfigurieren
Mit Metriken arbeiten
Datenkatalog im Analytischen Designer
Metriken umbenennen
Nummern formatieren
Vergleichende Berichte über Zeiträume
Metriken in Betrachtungen erstellen
Metriken stapeln
Betrachtungen exportieren und einbetten
Betrachtungen exportieren
Betrachtungen einbetten
Häufig gestellte Fragen zu Analytical Designer
Dashboards
Dashboards erstellen
Elemente in Dashboards bearbeiten
Dashboards teilen
Dashboards umbenennen
Dashboards duplizieren
Dashboards löschen
Hinzufügen einer Warnmeldung zu einem KPI
Automatische E-Mails von Dashboards einrichten
Filter in Dashboards
Datumsfilter in Dashboards
Passen Sie Datenfilter in Dashboards an
Datenfilterung in Dashboards
Betrachtungen von Dashboards filtern
Zu einem anderen Dashboard vordringen
Von Dashboards zu URL drillen
Drill-Down in Dashboards
Dashboard exportieren
Dashboards einbetten
Dashboard FAQs - häufig gestellte Fragen
Benutzerdefinierte Designs erstellen
Designeigenschaften
Designbeispiele
Designverwaltung mit Lebenszyklusverwaltung
Benutzerdefinierte Farbpaletten importieren
MAQL - Analytische Abfragesprache
MAQL und Multidimensionalität
MAQL vs. SQL
Erste Schritte beim Schrieben von Metriken mit MAQL
MAQL-Ausdrucksreferenz
Aggregationsfunktionen
SUM
AVG
MAX
MIN
MEDIAN
COUNT
GREATEST
LEAST
Statistische Funktionen
Varianzfunktionen
Standardabweichungsfunktionen
Kovarianzfunktionen
CORREL
Kleinste Quadratfunktionen
Numerische Funktionen
Arithmetische Operationen
ABS
SIGN
SQRT
LOG
LN
EXP
POWER
Rundungs- und Kürzungsfunktionen
ROUND
FLOOR
CEILING
TRUNC
Rank (Rangfolge)
Rangvariationen
WITHIN-Klausel
WHERE TOP oder BOTTOM(n) IN
WHERE TOP or BOTTOM(n) OF
Using Ranking Filters
PERCENTILE
Granularitätsschlüsselwörter
Betrachtungsattribute mit BY-Schlüsselwort überschreiben
BY
BY ALL
BY Attribute ALL IN ALL OTHER DIMENSIONS
BY ALL IN ALL OTHER DIMENSIONS
Das Attribut BY ALL IN ALL OTHER DIMENSIONS EXCEPT FOR
Zeittransformationen
Funktionen für die Bezugnahme auf Zeiträume in der Vergangenheit
FOR Previous
FOR PreviousPeriod
Funktionen zum Verweisen auf zukünftige Zeiträume
FOR Next
FOR NextPeriod
FORECAST - Hinzufügen einer Trendlinie zu einem Bericht
Funktionen für laufende Summen
Gleitfenster
Laufende Summen für Kernfunktionen
Statistische Funktionen für laufende Summen
Filterausdrücke
Filtern mit der Klausel WHERE
Operatoren zum Definieren von Filtern
Gleich-Operator
Ungleich-Operator
Andere relationale Operatoren
IN
NOT IN
BETWEEN
NOT BETWEEN
Bezugnahme auf gleitende Zeiträume
Das Makro THIS
Das Makro PREVIOUS
Das Makro NEXT
Hinzufügen gefilterter Variablen zu Metrikdefinitionen
Filtern mit der Klausel HAVING
Übergeordnete Filter überschreiben
ÜBERGEORDNETE Filter
Filtern mit der Klausel LIKE
Logische Funktionen
IF THEN ELSE
CASE
IFNULL
Logische Ausdrücke zum Verknüpfen von Filtern
NOT
OR
AND
XAE - Extensible Analytics Engine
Extensible Analytics Engine (XAE) - Häufig gestellte Fragen
Filter in der GoodData-Plattform
Daten und Uhrzeiten
Datumsattributshierarchien
Datumsattributsreferenz
Datumsformat ändern
Benutzerdefinierte Datumsdimensionen verwalten
Formatierung von Zahlen in Betrachtungen
Bedingte Zahlenformatierung
Farbformatierungsreferenz
Datenintegration
Datenmodellierung bei GoodData
Logische Datenmodellkomponenten bei GoodData
Datensätze in logischen Datenmodellen
Fakten in logischen Datenmodellen
Attribute in logischen Datenmodellen
Daten in logischen Datenmodellen
Verbindungspunkte in logischen Datenmodellen
Zuordnung zwischen einem logischen Datenmodell und der Datenquelle
Logisches Datenmodell manuell erstellen
Logisches Datenmodell aus einer CSV-Datei erstellen
Erstellen Sie ein logisches Datenmodell aus Ihrem Cloud Data Warehouse
Erstellen Sie ein logisches Datenmodell aus Ihrem Cloud Object Storage Service
Erstellen Sie ein logisches Datenmodell aus der Endstufe
Ein logisches Datenmodell aktualisieren
Ein logisches Datenmodell veröffentlichen
Importieren und exportieren Sie ein logisches Datenmodell
Hinzufügen von benutzerdefinierten Feldern zu den LDMs in Client-Workspaces innerhalb desselben Segments
Using a Custom Time Dimension in a Logical Data Model
Erstellen Sie die Endstufe basierend auf Ihrem logischen Datenmodell
Many-to-Many in logischen Datenmodellen
Performance des "Many-to-Many"-Modells
Datenmodellierung und MAQL
MAQL DDL
Change the Length of Attribute Labels
Bei zu vielen Datumsdimensionen Ereignisse ausprobieren
Vorbereitung und Distribution von Daten
Direkte Datenverteilung aus Data Warehouses und Object Storage Services
Details zur Integration von GoodData-Azure Blob Storage
Details zur Integration von GoodData-Azure SQL Database
Details zur Integration von GoodData-Azure Synapse Analytics
GoodData-BigQuery Integrationsdetails
Details zur Integration von GoodData-Microsoft SQL Server
Integrationsdetails zu GoodData-MongoDB BI Connector
GoodData-PostgreSQL Integrationsdetails
Details zur GoodData-Redshift Integration
Details zur Integration von GoodData-S3
Details zur GoodData-Snowflake Integration
Integrieren Sie Datenbanken direkt in GoodData, basierend auf einem bestehenden LDM
Integrieren Sie Daten aus Ihrem Amazon S3 Bucket direkt in GoodData
Automatisierte Datenverteilung v2 für Data Warehouses
Modi in automatisierter Datenverteilung v2 für Data Warehouses laden
Automatisierte Datenverteilung v2 für Data Warehouses einrichten
Namenskonvention für Objekte der Endstufe in automatisierter Datenverteilung v2 für Data Warehouses
Erstellen Sie die Endstufe basierend auf Ihrem Data Warehouse-Schema
Zeitzonen in automatisierter Datenverteilung v2 für Data Warehouses
Automatisierte Datenverteilung v2 für Object Storage Services
Modi in automatisierter Datenverteilung v2 für Object Storage Services laden
Automatisierte Datenverteilung v2 für Object Storage Services
Namenskonvention für Objekte der Endstufe in automatisierter Datenverteilung v2 für Object Storage Services
Datenaufbereitung und Verteilungs-Pipeline
Bevor Sie mit der Datenaufbereitung und Verteilungs-Pipeline beginnen
Phasen beim Bau einer Daten-Pipeline
Bau einer Daten-Pipeline
Daten-Pipeline exportieren und importieren
Daten-Pipeline-Referenz
Brick-Referenz
Brick konfigurieren
Downloader
CSV-Downloader
Eingabedaten für CSV-Downloader
Manifest-Datei
Feed-Datei
Google Analytics-Downloader
Herunterladen von Google Tabellen
Salesforce-Downloader
SQL-Downloader
Integratoren
ADS-Integrator
Kalkulationsfelder
Exekutoren
SQL-Exekutoren
Tools
Schedule Execution Brick
Tool zur Objektumbenennung
Erstellen von benutzerdefinierten Feldern
Laden von Datumsdimensionen
Referenz für Datenlager
Data Warehouse
Kurzanleitung für Data Warehouse
Datenstrom von Data Warehouse und der GoodData-Plattform
Bestimmungszweck von Data Warehouse
Data Warehouse und Vertica
Data Warehouse-Architektur
Data Warehouse-Technologie
Logisches und physisches Modell in Data Warehouse
Datenbank-Schemadesign
Logisches Schemadesign - Tabellen und Ansichten
Primär- und Fremdschlüssel
Änderung des logischen Schemas
Physisches Schemadesign - Projektierungen
Spaltenkodierung und Komprimierung
Spaltensortierreihenfolge
Segmentierung
Konfiguration der ersten Superprojektierung mit dem Befehl CREATE TABLE
Erstellen einer neuen Projektierung mit dem Befehl CREATE PROJECTION
Änderung des physischen Schemas
Spaltenspeicherung und Komprimierung in Data Warehouse
Anschlüsse zum Verbinden mit GoodData
Abfrage des Data Warehouse
Einschränkungen und Differenzen in Differenz von anderen RDBMS
Einzelnes Schema pro Data Warehouse-Instanz
Kein Vertica-Administratorzugang
COPY FROM LOCAL für das Laden von Daten verwenden
COPY FROM S3 zum Laden von Daten verwenden
Nicht unterstützte Funktionen
Eingeschränkter Zugriff auf Systemtabellen
Eingeschränkter Zugriff auf räumliche Funktionen
Flexible Tabellengrenzen
Datenbank-Designer Tool nicht verfügbar
Einschränkung des JDBC-Treibers
Ressourceneinschränkungen
Andere Einschränkungen
Data Warehouse Best Practices
Zum Verständnis von Vertica-Fehlercodes
Data Warehouse-API-Verweis
Arbeiten mit Data Warehouse-Instanzen
Erstellen einer Data Warehouse-Instanz
Details-Seite für Data Warehouse-Instanz
Überprüfen Ihrer Data Warehouse-Instanzen
Deprovisionierung Ihrer Data Warehouse-Instanz
Verwaltung von Benutzern und Zugangsrechten
Data Warehouse-Benutzerrollen
Abrufen einer Liste mit Data Warehouse-Benutzern
Hinzufügen eines Benutzers in Data Warehouse
Ändern einer Benutzerrolle in der Data Warehouse-Instanz
Überprüfen von Details zu Data Warehouse-Benutzern
Entfernen eines Benutzers von Data Warehouse
ADS Exporter
Einrichten einer Verbindung zu Data Warehouse
Verbindung mit Data Warehouse mit den SQL-Client-Tools
JDBC-Treiber herunterladen
Treiberversion für Data Warehouse
Anmelden für den JDBC-Treiber
Erstellung der JDBC-Verbindungszeichenfolge
Zugang zu Data Warehouse mit SQuirrel SQL
Verbindung mit Data Warehouse mit Java
Verbindung mit Data Warehouse über JRuby
Installieren von Ruby
Zugriff auf Data Warehouse über die Sequel-Bibliothek
Instalation der Datenbankanbindung zu Ruby
Installation der Data Warehouse-Unterstützung für JRuby
Beispiel für Ruby-Code für Data Warehouse
Referenz für automatisierte Datendistribution
Automatisierte Datenverteilung (Automated Data Distribution)
Arbeiten mit der automatisierten Datenverteilung (Automated Data Distribution)
Löschen von Daten aus Datensätzen in der Automatisierten Datenverteilung (Automated Data Distribution)
Namenskonvention für Ausgabestufenobjekte
Zeitzonen in der Automatisierten Datenverteilung (Automated Data Distribution)
Datenladevorgänge einrichten
Referenz für Datenintegrationskonsole
Zugriff auf die Datenintegrationskonsole
Übersichtsbildschirm der Datenintegrationskonsole
Projektbildschirm der Datenintegrationskonsole
Datenquelle erstellen
Teilen Sie eine Datenquelle mit anderen Nutzern
Datenquelle löschen
Einen Datenladevorgang auf die automatisierte Datenverteilung v2 anwenden
Prozess für Datenpipeline-Brick anwenden
Prozess für einen Lebenszyklusverwaltungs-Brick (LCM) anwenden
Eine Datenladung planen
Datenladeprozess für eine Gruppe von Workspaces planen
Eine geplante Datenladung bearbeiten
Explore Advanced Options of a Scheduled Data Load
Planungsparameter konfigurieren
Planungssequenzen konfigurieren
Datenladung ausschließlich zur manuellen Ausführung laden
Einen geplanten Datenladevorgang terminieren
Automatisches Wiederholen eines fehlgeschlagenen Datenladevorgangs konfigurieren
Einen geplanten Datenladevorgang auf Abruf ausführen
Einen geplanten Datenladevorgang deaktivieren
Ausführungsprotokoll einer Datenladung prüfen
Eine Benachrichtigungsregel für einen Datenladevorgang erstellen
Eine Benachrichtigungsregel aus einem Datenladevorgang löschen
Verwenden Sie Parameter in mehreren Datenladeprozessen
Eine geplante Datenladung löschen
CSV-Dateien in Ihren Workspace laden
CSV Dateianforderungen
Laden Sie CSV-Dateien mit dem LDM Modeler in einen Workspace
Daten in einem Datensatz aus einer CSV-Datei aktualisieren
Referenz für weitere Daten laden
IP Whitelisting
Laden von Daten über REST API
Beim Laden neuer Daten in einen Datensatz über API alte Daten löschen
Transformieren von Daten für Batch-Prognosen und Empfehlungen
Datenaufbereitungs- und Datenauswertungsfunktionen
Workspace-spezifische Datenspeicherung
Benutzerspezifische Datenspeicherung
Blueprints
Daten-Pipeline-Blueprints
ELT-Blueprint
ELT-Blueprint - Häufig gestellte Fragen
Löschen von Einträgen aus Datensätzen
Workspace und Benutzerverwaltung
Projekte und Projektobjekte verwalten
Workspace-ID finden
Workspace-Autorisierungstoken finden
Finden Sie heraus, auf welcher Datenbank-Engine ein Workspace läuft
Suchen des Projekt-Namens
Projekt umbenennen
Projekt klonen
Workspace validieren
Workspace erstellen
Workspace wechseln
Workspace verlassen
Workspace löschen
Festlegen der Zeitzone für Ihren Workspace
Daten aus einem Workspace löschen
Zugriff auf die grauen Seiten für einen Workspace
Migrieren ausgewählter Objekte zwischen Workspaces
Erfassen von Objekt-Identifiern für Projektmetadaten
Verschiedene Merkmale über Plattformeinstellungen konfigurieren
GoodData-Erweiterungstool für Chrome
Multi-Tenancy auf der GoodData-Plattform
Workspaces über Lebenszyklusverwaltung verwalten
LCM-Implementierung
Konfigurieren der LCM über API
Bausteine
Release-Brick
Rollout-Brick
Versorgungsbrick
Benutzerbaustein
Benutzerfilterbaustein
Arbeiten mit einem Baustein
Angeben komplexer Parameter
Arten von Eingabedatenquellen
Workspace-Daten und Datenzugriff verwalten
Verwalten von Datensätzen
Hinzufügen eines Tags zu einem Datensatz
Verwalten von Attributen
Hinzufügen eines Tags zu einem Attribut
Entdecken Sie Attributsbezeichnungen und Drill-Pfade
Suchen, wo ein Attribut verwendet wird
Festlegen der Attributswert-ID
Berechnete Attribute
Verwalten von Fakten
Hinzufügen eines Tags zu einem Fakt
Verwalten von Metriken
Hinzufügen eines Tags zu einer Metrik
Verwalten von Variablen
Workspace-Modell anzeigen
Verwendung von Tags
Erste Schritte mit Datenberechtigungen
Anwendungsfälle erweiterter Datenberechtigungen
Erstellen Sie Datengenehmigungen für rollierende Zeiträume
Berechtigung, Projektmetriken, Berichte und Dashboards zu bearbeiten
Mit Variablen die Datensichtbarkeit steuern
Numerische im Vergleich zu gefilterten Variablen
Numerische Variablen definieren
Einbinden von numerischen Variablen in Workspaces
Define Filtered Variables
Incorporating Filtered Variables at the Metric Level
Aktualisieren von Variablen mit REST API
Nutzer in Workspaces verwalten
Zuordnen von Benutzern zu Domänen und Projekten
Benutzerrollen
Benutzerrollen-Berechtigungen
Benutzerdefinierte Benutzerrolle erstellen
Benutzerversorgung in Projekten mit dem Benutzerbaustein
Profile von Workspace-Mitgliedern verwalten
Benutzer-ID suchen
Aktualisieren einer Benutzer-E-Mail-Adresse
Teilen von Dashboards mit mehreren Benutzern mittels Gruppen
Einladen von Benutzern mit vordefinierten Datenberechtigungen
Deaktivieren/Löschen von Benutzern
Standardzahlenformat für Ihr Benutzerkonto einrichten
GoodSuccess - GoodData Nutzungsanalyse
Erweitern Sie Ihre GoodData-Plattform
GoodData-Plattform - Übersicht
Tipps zur Leistungssteigerung
Data Warehouse-Leistung
Vermeiden Sie unnötige UPDATEs
Check for Invalid Views
Übernormalisieren Sie Ihr Schema nicht
Allgemeine Empfehlungen zur Entwicklung von Projektierungen
Netzwerk-Joins minimieren
Kriterien für die Projektierungssortierung auswählen
Behalten Sie die vorab definierte Projektion bei Abfragen
Tabellenabschnitte nutzen
Verwendung von Kontrolltabellen
Verwendung der Lauflängenkodierung (RLE)
Verwendung des Stichworts EXPLAIN
Schreiben großer Datenaktualisierungen direkt auf die Festplatte
Über ein Leistungsproblem berichten
Plattformgrenzen
Ihre GoodData-Domäne
GoodData-Datencenter
Datensicherung
Ereignisse der Audit-Plattform
Token-Arten bei GoodData
Ablauf der SST-Sitzung
Integration von GoodData in Ihre Anwendung
Domäne mit White Label versehen
Konfigurieren benutzerdefinierter Titelzeilen und Fußzeilen zum Exportieren von Berichten im PDF-Format
Konfigurieren von DKIM für ausgehende E-Mails
Standarddomänen und benutzerdefinierte Domänen
E-Mail-Vorlagen
Häufig gestellte Fragen zum White Labeling
White Labeling für eine neue Domäne
White Labeling für eine bestehende Domäne
Richten Sie ein CNAME ein und erwerben Sie ein TLS-Zertifikat
Domänenadministrator wählen
Rollout abstimmen
Konfiguration der White Labeling-Domäne
Einbetten von GoodData-Elementen in Ihre Anwendungen
Funktionsverfügbarkeit im eingebetteten und im nicht eingebetteten Modus
Analytical Designer einbetten
Kommunikation mit eingebettetem Analytical Designer
Einbetten eines KPI-Dashboards
Kommunikation mit eingebetteten KPI-Dashboards
Einbetten von Codeformaten
Angleichen von Sitzungen zwischen Ihrer Anwendung und GoodData
Einrichten von Ereignissen zum Verfeinern im eingebetteten Analytical Designer und in KPI-Dashboards
Direkt im eingebetten Analytical Designer gespeicherte Insight-Events von Benutzern aufzeichnen
Stichproben-HTML für Drill-Ereignisse
Benutzer-Authentifizierung und SSO einrichten
Single Sign-On - Übersicht
SAML SSO bei GoodData
Einrichten von Fluig Single Sign-On
Einrichten von Okta Single Sign-On
Einrichtung von Auth0 Single Sign-On
Identitäts-Provider mit Salesforce konfigurieren
Konfigurieren von Windows Server mit AD FS für GoodData SAML SSO
Verwenden Sie SAML Just-in-Time Nutzerversorgung in einer SAML SSO-Umgebung
System zur domänenübergreifenden Identitätsmanagement-Benutzerbereitstellung in einer SAML-SSO-Umgebung verwenden
PGP Single Sign-On bei GoodData
Generieren des Paares Public Key-Privater Schlüssel
Metadatenlokalisierung
API-Referenz
API Version Information und Changelog
GoodData-SDK
GoodData Java HTTP Client
Plattform-Sicherheit und Compliance
Security Shield
Enterprise Shield
HIPAA Add-On
GDPR Add-On
Unterstützte TLS Sicherheitsprotokolle und Ziffern
Identitätswechselfunktion
Kennwortrichtlinie
Firewall
GoodData Glossar
Zusätzliche Ressourcen
Veraltete Funktionen!
Amazon S3 Credentials API Resource
Hochladen von Daten mit der API-Ressource
IP-Adressen zum Laden von Daten
Interaktive Explorer
Java SDK Versionen 2.32.0 und älter
JDBC Driver Version 3.0.2 bis 3.1.2
Herkömmliche Salesforce SSO-Methode
PGP SSO GET Methode
Öffentlicher PGP-SSO-Schlüssel
Projektvorlagen
SFTP zum Laden von Daten auf die GoodData-Plattform
SHA-1 Signatur für SAML
Unterstützung für TLS Version 1.0 und 1.1
Visualisierungsobjekttyp in Projektmetadaten
Downloads
Fehlersuche
Data Warehouse (ADS) - Probleme
Fehlersuche bei fehlgeschlagenen Plänen
Fehlersuche beim Einbetten
Versionshinweise
Home
Find Documentation for Your GoodData Plan
GoodData Pricing Plans' Add-ons
GoodData Classic
How to Get Started with GoodData
System Requirements and Supported Browsers
Learn the Platform Essentials
GoodData Portal
Essential Terms and Concepts
Work with Workspaces
GoodData Demo Workspace
Create Workspaces
Load Data
Import CSV Files into a GoodData Workspace
Integrate a Data Source into a GoodData Workspace
Integrate a Data Source for a Data Warehouse
Import Sample Data to Your Data Source
Integrate a Data Source for an Object File Storage
Create a Relationship between Datasets
Publish your Logical Data Model
Load Data from a Data Source to a GoodData Workspace
Create Metrics
Create and Save a Metric
Add Insights and Dashboards
Create an Insight
Explore and Edit Insights on Dashboards
Build Dashboards
Share GoodData
Add and Manage Users in a Workspace
Embedding Analytical Designer
Embedding Dashboards
Dashboards and Insights
Analytical Designer
Visualize Your Data
Create Insights
Insight Types
Dependency Wheel Charts
Funnel Charts
Pyramid Charts
Sankey Diagrams
Waterfall Chart
Bar Charts
Bubble Charts
Bullet Charts
Column Charts
Combo Charts
Donut Charts
Geo Charts (pushpins)
Configure Data for Geo Charts (pushpins)
Headlines
Heatmaps
Line Charts
Pie Charts
Tables
Scatter Plots
Stacked Area Charts
Treemaps
Filters in Analytical Designer
Filter Insights by Values
Ranking Filter
Filter Metrics by Date
Enable Weeks in Date Filters
Sort Data in Insights
Configure Insight Properties
Work With Metrics
Data Catalog in Analytical Designer
Rename Metrics
Format Numbers
Time over Time Comparison
Create Metrics in Insights
Stack Metrics
Export and Embed Insights
Export Insights
Embed Insights
Analytical Designer - Frequently Asked Questions
Dashboards
Create Dashboards
Edit Items on Dashboards
Share Dashboards
Rename Dashboards
Duplicate Dashboards
Delete Dashboards
Add an Alert to a KPI
Schedule Automatic Emailing of Dashboards
Filters in Dashboards
Date Filters in Dashboards
Customize Date Filters in Dashboards
Drilling in Dashboards
Drill to Insights from Dashboards
Drill to Another Dashboard
Drill to URL from Dashboards
Drill Down in Dashboards
Export Dashboards
Embed Dashboards
Dashboards FAQ - Frequently Asked Questions
Create Custom Themes
Theme Properties
Theme Examples
Manage Themes with Life Cycle Management
Importing Custom Color Palettes
MAQL - Analytical Query Language
MAQL Use Cases and Tutorials
Explicit Lifting
Date Attribute Arithmetic
Finding Min and Max Dates Using Date Arithmetic
MAQL and Multidimensionality
MAQL versus SQL
Get Started with Using MAQL to Write Metrics
MAQL Expression Reference
Aggregation Functions
SUM
AVG
MAX
MIN
MEDIAN
COUNT
GREATEST
LEAST
Statistical Functions
Variance Functions
Standard Deviation Functions
Covariance Functions
CORREL
Least-Squares Functions
Numeric Functions
Arithmetic Operations
ABS
SIGN
SQRT
LOG
LN
EXP
POWER
Rounding and Truncation Functions
ROUND
FLOOR
CEILING
TRUNC
Rank
Rank Variations
WITHIN Clause
WHERE TOP or BOTTOM(n) IN
WHERE TOP or BOTTOM(n) OF
Using Ranking Filters
PERCENTILE
Granularity Keywords
Overriding Insight Attributes with BY Keyword
BY
BY ALL
BY attribute ALL IN ALL OTHER DIMENSIONS
BY ALL IN ALL OTHER DIMENSIONS
BY ALL IN ALL OTHER DIMENSIONS EXCEPT FOR attribute
Time Transformations
Functions For Referring to Past Time Periods
FOR Previous
FOR PreviousPeriod
Functions for Referring to Future Time Periods
FOR Next
FOR NextPeriod
FORECAST - Adding a Trend Line
Running Total Functions
Rolling Window
Running Totals for Core Functions
Running Total Statistical Functions
Filter Expressions
Filtering with the WHERE Clause
Operators for Defining Filters
Equals Operator
Does Not Equal Operator
Other Relational Operators
IN
NOT IN
BETWEEN
NOT BETWEEN
Referencing Floating Time Periods
THIS Macro
PREVIOUS Macro
NEXT Macro
Adding Filtered Variables to Metric Definitions
Filtering with the HAVING Clause
Overriding Parent Filters
PARENT Filters
Filtering with the LIKE Clause
Logical Functions
IF THEN ELSE
CASE
IFNULL
Logical Expressions for Combining Filters
NOT
OR
AND
XAE - Extensible Analytics Engine
Extensible Analytics Engine (XAE) - FAQ
Filters in the GoodData Platform
Dates and Times
Date Attribute Hierarchies
Date Attribute Reference
Change Date Format
Manage Custom Date Dimensions
Formatting Numbers in Insights
Conditional Number Formatting
Color Formatting Reference
Data Integration
Data Modeling in GoodData
Logical Data Model Components in GoodData
Datasets in Logical Data Models
Facts in Logical Data Models
Attributes in Logical Data Models
Dates in Logical Data Models
Connection Points in Logical Data Models
Mapping between a Logical Data Model and the Data Source
Create a Logical Data Model Manually
Create a Logical Data Model from CSV Files
Create a Logical Data Model from Your Cloud Data Warehouse
Create a Logical Data Model from Your Cloud Object Storage Service
Create a Logical Data Model from the Output Stage
Update a Logical Data Model
Publish a Logical Data Model
Import and Export a Logical Data Model
Add Custom Fields to the LDMs in Client Workspaces within the Same Segment
Using a Custom Time Dimension in a Logical Data Model
Create the Output Stage based on Your Logical Data Model
Many-to-Many in Logical Data Models
Many-to-Many Modeling Performance
Data Modeling and MAQL
MAQL DDL
Change the Length of Attribute Labels
If Too Many Date Dimensions, Try Events
Data Preparation and Distribution
Direct Data Distribution from Data Warehouses and Object Storage Services
GoodData-Azure Blob Storage Integration Details
GoodData-Azure SQL Database Integration Details
GoodData-Azure Synapse Analytics Integration Details
GoodData-BigQuery Integration Details
GoodData-Microsoft SQL Server Integration Details
GoodData-MongoDB BI Connector Integration Details
GoodData-MySQL Integration Details
GoodData-PostgreSQL Integration Details
GoodData-Redshift Integration Details
GoodData-S3 Integration Details
GoodData-Snowflake Integration Details
Integrate Data Warehouses Directly to GoodData based on an Existing LDM
Integrate Data from Your Amazon S3 Bucket Directly to GoodData
Automated Data Distribution v2 for Data Warehouses
Load Modes in Automated Data Distribution v2 for Data Warehouses
Set Up Automated Data Distribution v2 for Data Warehouses
Naming Convention for Output Stage Objects in Automated Data Distribution v2 for Data Warehouses
Create the Output Stage based on Your Data Warehouse Schema
Time Zones in Automated Data Distribution v2 for Data Warehouses
Automated Data Distribution v2 for Object Storage Services
Load Modes in Automated Data Distribution v2 for Object Storage Services
Set Up Automated Data Distribution v2 for Object Storage Services
Naming Convention for Source Files in Automated Data Distribution v2 for Object Storage Services
Data Preparation and Distribution Pipeline
Before You Start with Data Preparation and Distribution Pipeline
Phases of Building the Data Pipeline
Build Your Data Pipeline
Export and Import the Data Pipeline
Data Pipeline Reference
Brick Reference
Configure a Brick
Downloaders
CSV Downloader
Input Data for CSV Downloader
Manifest File
Feed File
Google Analytics Downloader
Google Sheets Downloader
Salesforce Downloader
SQL Downloader
Integrators
ADS Integrator
Computed Fields
Executors
SQL Executor
Utilities
Schedule Executor
Object Renaming Utility
Custom Field Creator
Date Dimension Loader
Data Warehouse Reference
Data Warehouse
Data Warehouse Quick Start
Data Warehouse and the GoodData Platform Data Flow
Intended Usage for Data Warehouse
Data Warehouse and Vertica
Data Warehouse Architecture
Data Warehouse Technology
Data Warehouse Logical and Physical Model
Database Schema Design
Logical Schema Design - Tables and Views
Primary and Foreign Keys
Altering Logical Schema
Physical Schema Design - Projections
Columns Encoding and Compression
Columns Sort Order
Segmentation
Configuring the Initial Superprojection with CREATE TABLE Command
Creating a New Projection with CREATE PROJECTION Command
Changing Physical Schema
Column Storage and Compression in Data Warehouse
Ports Used to Connect to GoodData
Querying Data Warehouse
Limitations and Differences in Data Warehouse from Other RDBMS
Single Schema per Data Warehouse Instance
No Vertica Admin Access
Use COPY FROM LOCAL to Load Data
Use COPY FROM S3 to Load Data
Not Supported Functions
Limited Access to System Tables
Limited Access to Spatial Functions
Flex Table Limits
Database Designer Tool not Available
JDBC Driver Limitations
Resource Limitations
Other Limitations
Data Warehouse Best Practices
Understanding Vertica Error Codes
Data Warehouse API Reference
How to Work with Data Warehouse Instances
Creating a Data Warehouse Instance
Data Warehouse Instance Details Page
Reviewing Your Data Warehouse Instances
Deprovision Your Data Warehouse Instance
Managing Users and Access Rights
Data Warehouse User Roles
Getting a List of Data Warehouse Users
Adding a User in Data Warehouse
Changing a User Role in the Data Warehouse Instance
Reviewing Data Warehouse User Details
Removing a User from Data Warehouse
Exporting Data from Data Warehouse
How to Set Up a Connection to Data Warehouse
Connecting to Data Warehouse from SQL Client Tools
Download the JDBC Driver
Data Warehouse Driver Version
Enable Logging for the JDBC Driver
Prepare the JDBC Connection String
Access Data Warehouse from SQuirrel SQL
Connecting to Data Warehouse from Java
Connecting to Data Warehouse from JRuby
Install JRuby
Access Data Warehouse Using the Sequel library
Installing Database Connectivity to Ruby
Installing the Data Warehouse JRuby support
Example Ruby code for Data Warehouse
Automated Data Distribution Reference
Automated Data Distribution
Use Automated Data Distribution
Delete Data from Datasets in Automated Data Distribution
Naming Convention for Output Stage Objects
Time Zones in Automated Data Distribution
Setting Up Data Loading Processes
Data Integration Console Reference
Accessing Data Integration Console
Data Integration Console Overview Screen
Data Integration Console Workspace Screen
Create a Data Source
Share a Data Source with Other Users
Delete a Data Source
Deploy a Data Loading Process for Automated Data Distribution v2
Deploy a Data Loading Process for a Data Pipeline Brick
Deploy a Data Loading Process for a Life Cycle Management (LCM) Brick
Schedule a Data Load
Schedule a Data Loading Process for a Group of Workspaces
Edit a Scheduled Data Load
Explore Advanced Options of a Scheduled Data Load
Configure Schedule Parameters
Configure Schedule Sequences
Schedule a Data Load for Manual Execution Only
Time a Scheduled Data Loading Process
Configure Automatic Retry of a Failed Data Loading Process
Run a Scheduled Data Loading Process on Demand
Disable a Scheduled Data Loading Process
Review a Log of Data Load Execution
Create a Notification Rule for a Data Loading Process
Delete a Notification Rule from a Data Loading Process
Reuse Parameters in Multiple Data Loading Processes
Delete a Scheduled Data Load
Load CSV Files to Your Workspace
CSV File Requirements
Load CSV Files to a Workspace with the LDM Modeler
Update Data in a Dataset from a CSV File
Additional Data Load Reference
GoodData IP Addresses and IP Whitelisting
Loading Data via REST API
Delete Old Data while Loading New Data to a Dataset via API
Transform Data for Batch Predictions and Recommendations
Data Preparation and Data Evaluation Functions
Workspace Specific Data Storage
User Specific Data Storage
Blueprints
Data Pipeline Blueprints
ELT Blueprint
ELT Blueprint FAQ
Deleting Records from Datasets
Workspace and User Administration
Administrating Workspaces and Workspace Objects
Find the Workspace ID
Find the Workspace Authorization Token
Find out what Database Engine a Workspace Runs on
Find the Workspace Name
Rename a Workspace
Clone a Workspace
Validate a Workspace
Create a Workspace
Switch Between Workspaces
Leave a Workspace
Delete a Workspace
Set a Custom Time Zone for Your Workspace
Deleting Data from a Workspace
Access the Gray Pages for a Workspace
Migrate Selected Objects between Workspaces
Acquiring Object Identifiers for Workspace Metadata
Configure Various Features via Platform Settings
GoodData Extension Tool for Chrome
Multitenancy on the GoodData Platform
Managing Workspaces via Life Cycle Management
LCM Implementation
Configuring LCM via API
Bricks
Release Brick
Rollout Brick
Provisioning Brick
Users Brick
User Filters Brick
How to Use a Brick
Specifying Complex Parameters
Types of Input Data Sources
Managing Workspace Data and Data Access
Manage Datasets
Add a Tag to a Dataset
Manage Attributes
Add a Tag to an Attribute
Discover Attribute Labels and Drill Paths
Find Where an Attribute Is Used
Determine the Attribute Value ID
Use Computed Attributes
Manage Facts
Add a Tag to a Fact
Manage Metrics
Add a Tag to a Metric
Manage Variables
View a Workspace Model
Using Tags
Data Permissions
Advanced Data Permissions Use Cases
Create Data Permissions for Rolling Time Periods
Permission to Edit Workspace Metrics
Using Variables to Control Data Visibility
Numerical vs Filtered Variables
Define Numerical Variables
Incorporating Numerical Variables into Workspaces
Define Filtered Variables
Incorporating Filtered Variables at the Metric Level
Updating the Variable Using REST API
Managing Users in Workspaces
Provisioning Users to Domains and Workspaces
User Roles
User Roles Permissions
Create a Custom User Role
Use the Users Brick to Provision Users in Your Workspaces
Managing Workspace Member Profiles
Find the User ID
Update a User Email
Use Groups to Share Dashboards with Multiple Users
Inviting Users with Pre-applied Data Permissions
Disable or Delete Users
Set Default Number Format for Your User Account
GoodSuccess - GoodData Usage Analytics
Expand Your GoodData Platform
GoodData Platform Overview
Performance Tips
Data Warehouse Performance
Avoid Unnecessary UPDATEs
Check for Invalid Views
Do Not Overnormalize Your Schema
General Projection Design Tips
Minimize Network Joins
Choose Projection Sorting Criteria
Keep the Predefined Projection in Queries
Take Advantage of Table Partitions
Use Monitoring Tables
Use Run Length Encoding (RLE)
Use the EXPLAIN Keyword
Write Large Data Updates Directly to Disk
Report a Performance Issue
Platform Limits
Your GoodData Domain
GoodData Datacenters
Data Backup
Auditing Platform Events
GoodData Token Types
SST Session Expiration
GoodData Integration into Your Application
White Label Your Domain
Configure Custom Headers and Footers for PDF Report Exports
Configure DKIM for Outgoing Email
Default and Custom Domains
Email Templates
Frequently Asked Questions about White Labeling
White-Label a New Domain
White-Label an Existing Domain
Set up a CNAME and Acquire a TLS Certificate
Choose a Domain Administrator
Coordinate Rollout
Customize the White-Labeled Domain
Embed GoodData Elements into Your Applications
Feature Availability in Embedded and Non-embedded Mode
Embed Analytical Designer
Communication with Embedded Analytical Designer
Embed a Dashboard
Communication with Embedded Dashboards
Embedding Code Formats
Aligning Sessions Between Your Application and GoodData
Setting up Events for Drilling in Embedded Analytical Designer and Dashboards
Capture the Save an Insight Event from Embedded Analytical Designer
Sample HTML for Drill Eventing
Set up User Authentication and SSO
Single Sign-On Overview
SAML SSO with GoodData
Setting up Fluig Single Sign-On
Setting up Okta Single Sign-On
Setting up Auth0 Single Sign-On
Configure Identity Provider with Salesforce
Configuring Windows Server with AD FS for GoodData SAML SSO
Use SAML Just-in-Time User Provisioning in a SAML SSO Environment
Use System for Cross-domain Identity Management User Provisioning in a SAML SSO Environment
GoodData PGP Single Sign-On
How to Generate a Public-Private Key Pair
Metadata Localization
API Reference
API Version Information and Changelog
GoodData SDK
GoodData Java HTTP Client
Platform Security and Compliance
Security Shield
Enterprise Shield
HIPAA Add-On
GDPR-S Add-On
Supported TLS Security Protocols and Ciphers
Impersonation Feature
Password Policy
Firewall
GoodData Glossary
Additional Resources
Deprecated Features
Amazon S3 Credentials API Resource
Data Upload API Resource
Deprecated IP Addresses
Interactive Explorers
Java SDK Versions 2.32.0 and Older
JDBC Driver Version 3.0.2 through 3.1.2
Legacy Salesforce SSO Method
PGP SSO GET Method
PGP SSO Public Key
Project Templates
SFTP for Loading Data to the GoodData Platform
SHA-1 Signature for SAML
Support for TLS Version 1.0 and 1.1
visualization Object Type in Project Metadata
Downloads
Troubleshooting
Data Warehouse (ADS) Issues
Schedule Issues
Embedding Issues
Release Notes
Home
Encuentre documentación para su plan de GoodData
Complementos de los planes de precios de GoodData
Primeros pasos en GoodData
Requisitos del sistema y navegadores compatibles
Learn the Platform Essentials
GoodData Portal
Essential Terms and Concepts
Work with Workspaces
GoodData Demo Workspace
Create Workspaces
Load Data
Import CSV Files into a GoodData Workspace
Integrate a Data Source into a GoodData Workspace
Integrate a Data Source for a Data Warehouse
Import Sample Data to Your Data Source
Integrate a Data Source for an Object File Storage
Create a Relationship between Datasets
Publish your Logical Data Model
Load Data from a Data Source to a GoodData Workspace
Create Metrics
Create and Save a Metric
Add Insights and Dashboards
Create an Insight
Explore and Edit Insights on Dashboards
Build Dashboards
Share GoodData
Add and Manage Users in a Workspace
Embedding Analytical Designer
Embedding Dashboards
Paneles y perspectivas
Analytical Designer
Visualice sus datos
Crear perspectivas
Tipos de perspectivas
Gráficos de barras
Gráficos de burbujas
Gráficos de viñetas
Gráficos de columnas
Gráficos combinados
Gráficos de anillos
Gráfico geográfico (marcadores)
Configurar datos para gráficos geográficos (marcadores)
Encabezados
Mapas térmicos
Gráficos de líneas
Gráficos circulares
Gráficos de dispersión
Gráficos de áreas apiladas
Tablas
Gráficos de rectángulos
Filtros en Analytical Designer
Filtrar perspectivas por valores
Filtro de clasificación
Filtrar métricas por fecha
Activar las semanas en los filtros de fecha
Ordenar datos en perspectivas
Configurar las propiedades de las perspectivas
Trabajar con métricas
Catálogo de datos en Analytical Designer
Renombrar métricas
Formatear números
Comparación de períodos
Crear métricas en perspectivas
Apilar métricas
Exportar e incrustar perspectivas
Exportar perspectivas
Incrustar perspectivas
Preguntas frecuentes de Analytical Designer
Paneles
Crear paneles
Editar elementos en los paneles
Compartir paneles
Renombrar paneles
Duplicar paneles
Eliminar paneles
Agregar una alerta a un KPI
Programar el envío automático de paneles por correo electrónico
Filtros en paneles
Filtros de fecha en paneles
Personalizar filtros de fechas en paneles
Exploración en paneles
Explorar perspectivas desde paneles
Explorar hasta otro panel
Explorar hacia una URL desde paneles
Exploración vertical en paneles
Exportar paneles
Incrustar paneles
Preguntas frecuentes sobre los paneles
Crear temas personalizados
Propieades del tema
Ejemplos de temas
Gestionar los temas con la Gestión del ciclo de vida
Importación de paletas de color personalizadas
MAQL - El lenguaje de consulta analítico
MAQL y la multidimensionalidad
MAQL en comparación con SQL
Comience a utilizar MAQL para escribir métricas
Referencias de expresiones MAQL
Funciones de agregación
SUM
AVG
MAX
MIN
MEDIAN
COUNT
GREATEST
LEAST
Funciones estadísticas
Funciones de varianza
Funciones de desviación estándar
Funciones de covarianza
CORREL
Funciones de mínimos cuadrados
Funciones numéricas
Operaciones aritméticas
ABS
SIGN
SQRT
LOG
LN
EXP
POWER
Funciones de redondeo y truncamiento
ROUND
FLOOR
CEILING
TRUNC
Clasificación
Variaciones de clasificación
Cláusula WITHIN
WHERE TOP o BOTTOM(n) IN
WHERE TOP o BOTTOM(n) OF
Using Ranking Filters
PERCENTILE
Palabras clave de granularidad
Anulación de atributos de perspectiva con palabra clave BY
BY
BY ALL
BY atributo ALL IN ALL OTHER DIMENSIONS
BY ALL IN ALL OTHER DIMENSIONS
Atributo BY ALL IN ALL OTHER DIMENSIONS EXCEPT FOR
Transformaciones de tiempo
Funciones para hacer referencia a períodos pasados
FOR Previous
FOR PreviousPeriod
Funciones que hacen referencia a periodos de tiempo futuros
FOR Next
FOR NextPeriod
FORECAST: Adición de una línea de tendencia a un informe
Funciones de totales acumulados
Ventana con desplazamiento
Totales acumulados para funciones básicas
Funciones estadísticas de totales acumulados
Expresiones de filtro
Filtrado con la cláusula WHERE
Operadores para definir filtros
Operador Igual a
Operador Distinto de
Otros operadores relacionales
IN
NOT IN
BETWEEN
NOT BETWEEN
Referencia a períodos de tiempo flotante
Macro THIS
Macro PREVIOUS
Macro NEXT
Adición de variables filtradas a definiciones de métricas
Filtrado con la cláusula HAVING
Reemplazar filtros principales
Filtros PARENT
Filtrado con la cláusula LIKE
Funciones lógicas
IF THEN ELSE
CASE
IFNULL
Expresiones lógicas para la combinación de filtros
NOT
OR
AND
XAE (Motor de análisis ampliable)
Preguntas frecuentes sobre el Motor de análisis ampliable (XAE)
Filtros en la plataforma de GoodData
Fechas y horas
Jerarquías del atributo de fecha
Referencia del atributo de fecha
Cambiar el formato de fecha
Gestionar dimensiones de fecha personalizadas
Formatear números en perspectivas
Formato numérico condicional
Referencia del formato de color
Integración de datos
Modelado de datos en GoodData
Componentes del modelo lógico de datos en GoodData
Conjuntos de datos en modelos lógicos de datos
Hechos en modelos lógicos de datos
Atributos en modelos lógicos de datos
Fechas en el modelo lógico de datos
Puntos de conexión en modelos lógicos de datos
Mapear entre un modelo lógico de datos y la fuente de datos
Crear un modelo lógico de datos manualmente
Crear un modelo lógico de datos desde archivos CSV
Crear un modelo lógico de datos desde el almacén de datos en la nube
Crear un modelo lógico de datos desde su servicio de almacenamiento de objetos en la nube
Crear un modelo lógico de datos desde la fase de salida
Actualizar un modelo lógico de datos
Publicar un modelo lógico de datos
Importar y exportar un modelo lógico de datos
Añadir campos personalizados a los LDM en espacios de trabajo de clientes dentro del mismo segmento
Using a Custom Time Dimension in a Logical Data Model
Crear la fase de salida basada en el modelo lógico de datos
Varios a varios en modelos lógicos de datos
Rendimiento del modelado de varios a varios
Modelado de datos y MAQL
MAQL DDL
Cambio de la longitud de las etiquetas de atributo
Si hay demasiadas dimensiones de fecha, inténtelo con eventos
Preparación y distribución de los datos
Distribución directa de datos desde almacenes de datos y servicios de almacenamiento de objetos
Información sobre la integración GoodData-Azure Blob Storage
Información sobre la integración de GoodData y Azure SQL Database
Información sobre la integración de GoodData y Azure Synapse Analytics
Detalles de la integración GoodData-BigQuery
GoodData-Microsoft SQL Integration Details
Detalles de la integración del conector de BI de GoodData-MongoDB
Detalles de la integración de GoodData-PostgreSQL
Detalles de la integración de GoodData y Redshift
Información sobre la integración GoodData-S3
Detalles de la integración de GoodData y Snowflake
Integrar almacenes de datos directamente en GoodData basados en un LDM existente
Integrar datos directamente desde su contenedor de objetos de Amazon S3 a GoodData
Distribución de datos automatizada v2 para almacenes de datos
Cargar modos en la distribución de datos automatizada v2 para almacenes de datos
Configurar la distribución de datos automatizada v2 para almacenes de datos
Convención de nomenclatura para objetos de la fase de salida en la distribución de datos automatizada v2 para almacenes de datos
Crear la fase de salida según el esquema de su almacén de datos
Husos horarios en la distribución de datos automatizada v2 para almacenes de datos
Distribución de datos automatizada v2 para servicios de almacenamiento de objetos
Cargar modos en la distribución de datos automatizada v2 para servicios de almacenamiento de objetos
Configurar la distribución de datos automatizada v2 para servicios de almacenamiento de objetos
Convención de nomenclatura para archivos de origen en la distribución de datos automatizada v2 para servicios de almacenamiento de objetos
Preparación de datos y trayectoria de distribución
Antes de comenzar con la preparación de datos y la trayectoria de distribución
Fases de la creación del canal comercial de datos
Construir su canal comercial de datos
Exportar e importar el canal comercial de datos
Referencia del pipeline de datos
Referencia de bricks
Configurar un brick
Gestores de descargas
Gestor de descargas de CSV
Datos de entrada para el gestor de descargas de CSV
Archivo de manifiesto
Archivo de alimentación
Gestor de descargas de Google Analytics
Aplicación de descarga de Hojas de cálculo de Google
Gestor de descargas de Salesforce
Gestor de descargas de SQL
Integradores
Integrador de ADS
Campos calculados
Ejecutores
Ejecutor de SQL
Herramientas
Schedule Execution Brick
Herramienta para renombrar objetos
Creador de campos personalizados
Cargador de dimensiones de fecha
Referencia del almacén de datos
Almacén de datos
Inicio rápido en el almacén de datos
El almacén de datos y el flujo de datos de la plataforma GoodData
Uso previsto del almacén de datos
Almacén de datos y Vertica
Arquitectura del almacén de datos
Tecnología del almacén de datos
Modelo lógico y modelo físico del almacén de datos
Diseño del esquema de base de datos
Diseño del esquema lógico: tablas y vistas
Claves principales y externas
Modificación del esquema lógico
Diseño del esquema físico: proyecciones
Codificación y compresión de columnas
Sentido del orden de las columnas
Segmentación
Configuración de la superproyección inicial con el comando CREATE TABLE
Crear una nueva proyección con el comando CREATE PROJECTION
Modificación del esquema físico
Almacenamiento y compresión de columnas en el almacén de datos
Puertos utilizados para conectarse a GoodData
Consultas para el almacén de datos
Limitaciones y diferencias del almacén de datos respecto a otros RDBMS
Esquema único por instancia del almacén de datos
Acceso prohibido a las funciones para administradores de Vertica
Utilizar COPY FROM LOCAL para cargar datos
Uso de COPY FROM S3 para cargar datos
Funciones no admitidas
Acceso limitado a las tablas del sistema
Acceso limitado a las funciones espaciales
Límites de la tabla flex
Herramienta Database Designer no disponible
Limitaciones del controlador JDBC
Limitaciones de recursos
Otras limitaciones
Mejores prácticas del almacén de datos
Descripción de los códigos de error de Vertica
Referencia API del almacén de datos
Cómo trabajar con las instancias del almacén de datos
Crear una instancia del almacén de datos
Página de detalles de la instancia del almacén de datos
Revisar instancias del almacén de datos
Desaprovisionar una instancia del almacén de datos
Gestión de usuarios y derechos de acceso
Funciones de los usuarios del almacén de datos
Obtener una lista de usuarios del almacén de datos
Agregar a un usuario en el almacén de datos
Cambiar una función de usuario en la instancia del almacén de datos
Revisión de los detalles de los usuarios del almacén de datos
Quitar a un usuario del almacén de datos
Exportar datos desde un almacén de datos
Cómo configurar una conexión con el almacén de datos
Establecer conexión con el almacén de datos desde herramientas cliente SQL
Descargar el controlador JDBC
Versión del controlador del almacén de datos
Habilitar registro para el controlador JDBC
Preparación de la cadena de conexión JDBC
Acceder al almacén de datos desde SQuirrel SQL
Establecer conexión con el almacén de datos desde Java
Establecer conexión con el almacén de datos desde JRuby
Instalación de JRuby
Acceder al almacén de datos utilizando la biblioteca Sequel
Instalar la conectividad de la base de datos para Ruby
Instalar el soporte del almacén de datos para JRuby
Ejemplo de código Ruby para el almacén de datos
Referencia de la distribución automatizada de datos
Distribución automatizada de datos
Utilizar distribución automatizada de datos
Eliminación de datos de conjuntos de datos en la distribución automatizada de datos
Convención de nomenclatura para objetos de la etapa de salida
Zonas horarias en la distribución automatizada de datos
Configurar procesos de carga de datos
Referencia de la consola de integración de datos
Acceso a la Consola de integración de datos
Pantalla Introducción de la Consola de integración de datos
Pantalla Proyectos de la Consola de integración de datos
Crear una fuente de datos
Compartir una fuente de datos con otros usuarios
Eliminar una fuente de datos
Implementar un proceso de carga de datos para la distribución de datos automatizada v2
Desplegar un proceso para un brick del canal comercial de datos
Desplegar un proceso para un brick de gestión del ciclo de vida (LCM)
Programar una carga de datos
Programar um processo de carregamento de dados para um grupo de espaços de trabalho
Editar una carga de datos programada
Explore Advanced Options of a Scheduled Data Load
Configurar los parámetros de programación
Configurar las secuencias de programación
Programar una carga de datos solo para la ejecución manual
Cronometrar un proceso de carga de datos programado
Configurar el reintento automático de un proceso de carga de datos fallido
Ejecutar un proceso de carga de datos programado bajo demanda
Desactivar un proceso de carga de datos programado
Revisar el registro de una ejecución de carga de datos
Crear una regla de notificación para un proceso de carga de datos
Eliminar una regla de notificación de un proceso de carga de datos
Reutilizar parámetros en procesos de carga de datos múltiples
Eliminar una carga de datos programada
Cargar archivos CSV a un espacio de trabajo
Requisitos de los archivos CSV
Cargar archivos CSV a un espacio de trabajo con LDM Modeler
Cargar datos en un conjunto de datos desde un archivo CSV
Referencia de la carga de datos adicionales
Listas blancas de IP
Carga de datos mediante la API de REST
Eliminación de datos antiguos mientras se cargan dados nuevos a un conjunto de datos con la API
Transformación de datos para las predicciones y recomendaciones en lote
Funciones de evaluación y preparación de datos
Almacenamiento de datos específico del proyecto
Almacenamiento de datos específico del usuario
Planes
Planes de procesos de datos
Plan ELT
Preguntas frecuentes sobre el plan ELT
Eliminación de registros del conjunto de datos
Administración de espacios de trabajo y usuarios
Administrar proyectos y objetos de proyectos
Encontrar el ID del espacio de trabajo
Encontrar el token de autorización del espacio de trabajo
Encontrar qué motor de base de datos utiliza un espacio de trabajo
Buscar el nombre del proyecto
Cambiar el nombre de un proyecto
Clonar un proyecto
Validar un espacio de trabajo
Crear un espacio de trabajo
Cambiar entre espacios de trabajo
Salir de un espacio de trabajo
Eliminar un espacio de trabajo
Configurar una zona horaria personalizada para su espacio de trabajo
Eliminar datos de un espacio de trabajo
Acceder a las páginas grises de un espacio de trabajo
Migrar los objetos seleccionados entre espacios de trabajo
Adquisición de identificadores de objeto para metadatos de proyecto
Configurar varias funciones a través de los ajustes de la plataforma
Herramienta Extensión de GoodData para Chrome
Multiinquilinato en la Plataforma de GoodData
Gestionar los espacios de trabajo mediante la Gestión del ciclo de vida (LCM)
Implementación de LCM
Configuración de LCM mediante API
Componentes
Brick de liberación
Brick de despliegue
Brick de aprovisionamiento
Componente de usuario
Componente Filtros de usuario
Cómo utilizar un componente
Especificación de parámetros complejos
Tipos de orígenes de datos de entrada
Gestionar los datos del espacio de trabajo y el acceso a los datos
Gestión de conjuntos de datos
Agregar una etiqueta a un conjunto de datos
Gestión de atributos
Agregar una etiqueta a un atributo
Descubrir etiquetas de atributo y rutas de exploración
Encontrar dónde se utiliza un atributo
Determinar el ID del valor de atributo
Atributos calculados
Gestión de hechos
Agregar una etiqueta a un hecho
Gestión de métricas
Agregar una etiqueta a una métrica
Gestión de variables
Ver el modelo de un espacio de trabajo
Utilizar etiquetas
Primeros pasos con los permisos de datos
Casos de uso de permisos de datos avanzados
Crear permisos de datos para periodos de tiempo secuenciales
Permiso para editar las métricas, informes y paneles del proyecto
Usar variables para controlar la visibilidad de los datos
Variables numéricas vs. variables filtradas
Definir variables numéricas
Incorporar variables numéricas en espacios de trabajo
Define Filtered Variables
Incorporating Filtered Variables at the Metric Level
Actualización de la variable con API de REST
Gestionar usuarios en los espacios de trabajo
Aprovisionamiento de usuarios a dominios y proyectos
Funciones de usuario
Permisos de las funciones de usuario
Crear una función de usuario personalizada
Uso del componente Usuarios para aprovisionar usuarios a los proyectos
Gestionar los perfiles de los miembros del espacio de trabajo
Encontrar el id. de usuario
Actualización del correo electrónico de un usuario
Usar grupos para compartir paneles con varios usuarios
Invitar a usuarios con permisos de datos aplicados con anterioridad
Deshabilitar o eliminar usuarios
Definir el formato numérico predeterminado de una cuenta de usuario
GoodSuccess - Análisis de uso de GoodData
Expanda su plataforma de GoodData
Descripción general de la plataforma GoodData
Consejos sobre el rendimiento
Rendimiento del almacén de datos
Evitar UPDATE innecesarios
Check for Invalid Views
No sobrenormalice su esquema
Sugerencias generales para el diseño de proyecciones
Minimizar combinaciones de red
Escoger el sentido del orden de las proyecciones
Mantener la proyección predefinida en las consultas
Aprovechar las particiones de tabla
Utilizar tablas de supervisión
Utilizar codificación RLE
Uso de la palabra clave EXPLAIN
Escribir grandes actualizaciones de datos directamente en el disco
Comunicar un problema de rendimiento
Límites de plataforma
Su dominio GoodData
Centros de datos de GoodData
Copias de seguridad de datos
Auditoría de los eventos de la plataforma
Tipos de tokens de GoodData
Vencimiento de la sesión SST
Integración de GoodData en su aplicación
Marca propia en un dominio
Configuración de encabezados y pies de página personalizados para exportaciones de informes en PDF
Configurar DKIM para correo saliente
Dominios predeterminados y personalizados
Plantillas de correo electrónico
Preguntas frecuentes sobre el servicio de marca propia
Definición de una marca propia en un nuevo dominio
Definición de una marca propia en un dominio
Configure un CNAME y adquiera un certificado TLS
Elección de un administrador del dominio
Coordinación del lanzamiento
Personalización del dominio de marca propia
Incrustar elementos GoodData en las aplicaciones
Disponibilidad de características en modo incrustado y no incrustado
Incrustar Analytical Designer
Comunicación con el Analytical Designer incrustado
Incrustar un panel de KPI
Comunicación con los paneles de KPI incrustados
Incrustación de formatos de código
Alinear sesiones entre su aplicación y GoodData
Configuración de eventos para exploración en profundidad en el Analytical Designer incrustado y en paneles de KPI
Registrar el evento Guardar una perspectiva desde el Analytical Designer integrado
HTML de muestra para eventos de exploración
Configurar autenticación de usuario y SSO
Descripción general de inicio de sesión único
SSO basada en SAML con GoodData
Definición de un inicio de sesión único para Fluig
Definición de un inicio de sesión único para Okta
Configurar el inicio de sesión único (SSO) automático
Configuración del proveedor de identidades con Salesforce
Configuración de Windows Server con AD FS para SSO basada en SAML de GoodData
Utilizar el aprovisionamiento de usuarios Justo a tiempo (JIT o "Just in Time") de SAML en un entorno SAML SSO
Utilizar el aprovisionamiento de usuarios del sistema para la gestión de identidades entre dominios (SCIM) en un entorno SSO basado en SAML
Inicio de sesión único para PGP GoodData
Cómo generar un par de clave pública y privada
Localización de metadatos
Referencia de la API
API de versiones y registro de cambios
SDK de GoodData
Cliente HTTP Java para GoodData
Seguridad y cumplimiento de la plataforma
Security Shield
Enterprise Shield
Complemento HIPAA
Complemento GDPR-S
Compatibilidad con códigos y protocolos de seguridad TLS
Característica de suplantación
Política de contraseñas
Cortafuegos
Glosario de GoodData
Recursos adicionales
Funciones obsoletas
Recurso de API de credenciales de Amazon S3
Recurso API de carga de datos
Direcciones IP utilizadas para cargar datos
Exploradores interactivos
Versiones 2.32.0 y anteriores del SDK de Java
Versión 3.0.2 a 3.1.2 de JDBC Driver
Método heredado de Salesforce SSO
Método PGP SSO GET
Clave pública PGP SSO
Plantillas del proyecto
SFTP para cargar datos a la plataforma de GoodData
Firma SHA-1 para SAML
Compatibilidad para TLS versiones 1.0 y 1.1
Tipo de visualization Object en los metadatos de proyecto
Descargas
Solución de problemas
Problemas con Data Warehouse (ADS)
Problemas de programación
Problemas de incrustación
Notas de la versión
Home
Trouver de la documentation sur votre formule GoodData
Extensions des formules d'abonnement de GoodData
Prise en main de GoodData
Conditions requises du système et navigateurs pris en charge
Learn the Platform Essentials
Portail GoodData
Essential Terms and Concepts
Work with Workspaces
GoodData Demo Workspace
Create Workspaces
Load Data
Import CSV Files into a GoodData Workspace
Integrate a Data Source into a GoodData Workspace
Integrate a Data Source for a Data Warehouse
Import Sample Data to Your Data Source
Integrate a Data Source for an Object File Storage
Create a Relationship between Datasets
Publish your Logical Data Model
Load Data from a Data Source to a GoodData Workspace
Create Metrics
Create and Save a Metric
Add Insights and Dashboards
Create an Insight
Explore and Edit Insights on Dashboards
Build Dashboards
Share GoodData
Add and Manage Users in a Workspace
Embedding Analytical Designer
Embedding Dashboards
Tableaux de bord et perceptions
Analytical Designer
Visualiser vos données
Créer des perceptions
Types de perceptions
Graphiques à barres
Graphiques à bulles
Graphiques à puces
Graphiques à colonnes
Graphiques combinés
Graphiques en anneaux
Graphiques géographiques (punaises géo)
Configurer des données pour les graphiques géographiques (punaises géo)
Titres principaux
Cartes thermiques
Graphiques en courbes
Graphiques à secteurs
Graphiques en nuage de points
Graphiques en aires empilées
Tableaux
Compartimentages
Filtres dans Analytical Designer
Filtrer des perceptions par valeurs
Filtre de classement
Filtrer des métriques par date
Activer les semaines dans les filtres de données
Trier des données dans les perceptions
Configuration des propriétés de perceptions
Travailler avec des métriques
Catalogue de données d'Analytical Designer
Renommer des métriques
Formats de nombres
Comparaison entre deux périodes
Créer des métriques dans des perceptions
Empiler des métriques
Exporter et incorporer des perceptions
Exporter des perceptions
Incorporer des perceptions
Analytical Designer - Forum aux questions
Tableaux de bord
Créer des tableaux de bord
Modifier des éléments sur les tableaux de bord
Partager des tableaux de bord
Renommer des tableaux de bord
Dupliquer des tableaux de bord
Supprimer des tableaux de bord
Ajouter une alerte à un KPI
Programmer l'envoi automatique par e-mail des tableaux de bord
Filtres des tableaux de bord
Filtres de date dans les tableaux de bord
Personnaliser des filtres de date dans des tableaux de bord
Explorer des tableaux de bord
Explorer les perceptions dans les tableaux de bord
Exploration vers un autre tableau de bord
Explorer des URL à partir de tableaux de bord
Exploration descendante des tableaux de bord
Exporter des tableaux de bord
Incorporer des tableaux de bord
FAQ : tableaux de bord
Créer des thèmes personnalisés
Propriétés des thèmes
Exemples de thème
Gérer les thèmes avec LCM
Importation de palettes de couleurs personnalisées
MAQL - Langage de requête analytique
MAQL et multidimensionnalité
MAQL et SQL
Apprendre à utiliser MAQL pour écrire des métriques
Référence d'expression MAQL
Fonctions d’agrégation
SUM
AVG
MAX
MIN
MEDIAN
COUNT
GREATEST
LEAST
Fonctions statistiques
Fonctions de variance
Fonctions de l'écart-type
Fonctions de covariance
CORREL
Fonctions des moindres carrés
Fonctions numériques
Opérations arithmétiques
ABS
SIGN
SQRT
LOG
LN
EXP
POWER
Fonction d'arrondi et de troncature
ROUND
FLOOR
CEILING
TRUNC
Classement
Variations de classement
Clause WITHIN
WHERE TOP ou BOTTOM(n) IN
WHERE TOP ou BOTTOM(n) OF
Using Ranking Filters
PERCENTILE
Mots clés de granularité
Remplacer des attributs de perception à l'aide du mot clé BY
BY
BY ALL
BY attribute ALL IN ALL OTHER DIMENSIONS
BY ALL IN ALL OTHER DIMENSIONS
BY ALL IN ALL OTHER DIMENSIONS EXCEPT FOR attribute
Transformations temporelles
Fonctions pour faire référence aux périodes antérieures
FOR Previous
FOR PreviousPeriod
Fonctions de référence pour les futures périodes de temps
FOR Next
FOR NextPeriod
FORECAST - Ajouter une courbe de tendance à un rapport
Fonctions du total cumulé
Fenêtre glissante
Totaux glissants pour les fonctions de base
Fonctions statistiques de total glissant
Expressions de filtre
Filtrage à l'aide de la clause WHERE
Opérateurs pour définir les filtres
Opérateur Est égal à
Opérateur « Est différent »
Autres opérateurs relationnels
IN
NOT IN
BETWEEN
NOT BETWEEN
Référencement des périodes flottantes
Macro THIS
Macro PREVIOUS
Macro NEXT
Ajout de variables filtrées à des définitions de métriques
Filtrage à l'aide de la clause HAVING
Remplacer des filtres parents
Filtres PARENT
Filtrage à l'aide de la clause LIKE
Fonctions logiques
IF THEN ELSE
CASE
IFNULL
Expressions logiques pour combiner les filtres
NOT
OR
AND
XAE : Extensible Analytics Engine
Extensible Analytics Engine (XAE) - FAQ
Filtres de la plateforme GoodData
Dates et heures
Hiérarchies des attributs de date
Référence d'attribut de date
Modifier le format de date
Gestion des dimensions de date personnalisées
Mise en forme des nombres dans les perceptions
Mise en forme numérique conditionnelle
Référence de mise en forme des couleurs
Intégration de données
Modélisation de données dans GoodData
Composants des modèles de données logiques dans GoodData
Ensembles de données dans les modèles de données logiques
Faits dans les modèles de données logiques
Attributs dans les modèles de données logiques
Dates dans le modèle de données logique
Points de connexion dans les modèles de données logiques
Mappage entre un modèle de données logique et la source de données
Créer manuellement un modèle de données logique
Créer un modèle de données logique à partir de fichiers CSV
Créer un modèle de données logique à partir de votre entrepôt de données sur le cloud
Création d'un modèle de données logique à partir d'un service de stockage d'objets sur le cloud
Créer un modèle de données logique à partir de l'étape de sortie
Mettre à jour un modèle de données logique
Publier un modèle de données logique
Importer et exporter un modèle de données logique
Ajouter des champs personnalisés aux LDM d'espaces de travail clients au sein du même segment
Using a Custom Time Dimension in a Logical Data Model
Créer l'étape de sortie en fonction de votre modèle de données logique
Plusieurs-à-plusieurs dans les modèles de données logiques
Performance de la modélisation plusieurs-à-plusieurs
Modélisation de données et MAQL
MAQL DDL
Change the Length of Attribute Labels
En cas de dimensions de date excessives, essayer les événements
Préparation et distribution des données
Distribution de données directe à partir d'entrepôts de données et de services de stockage d'objets
Détails de l'intégration GoodData-Stockage Azure Blob
Détails de l'intégration GoodData-Azure SQL Database
Détails de l'intégration GoodData-Azure Synapse Analytics
Détails de l'intégration GoodData-BigQuery
Détails de l'intégration GoodData-Microsoft SQL Server
Détails de l'intégration GoodData-MongoDB BI Connector
Détails de l'intégration GoodData-PostgreSQL
Détails sur l'intégration GoodData-Redshift
Détails de l'intégration GoodData-S3
Détails sur l'intégration GoodData-Snowflake
Intégrer des entrepôts de données directement dans GoodData à partir d'un LDM existant
Intégrer les données d'un compartiment Amazon S3 directement dans GoodData
Distribution automatique des données v2 pour les entrepôts de données
Modes de chargement dans la Distribution automatique des données v2 pour les entrepôts de données
Configurer la Distribution automatique des données v2 pour les entrepôts de données
Convention d'affectation de nom pour les objets de l'étape de sortie dans la Distribution automatique des données v2 pour les entrepôts de données
Créer l'étape de sortie à partir du schéma de votre entrepôt de données
Fuseaux horaires dans la Distribution automatique des données v2 pour les entrepôts de données
Distribution automatique des données v2 pour les services de stockage d'objets
Modes de chargement dans la Distribution automatique des données v2 pour les services de stockage d'objets
Configurer la Distribution automatique des données v2 pour les services de stockage d'objets
Convention d'affectation de nom pour les fichiers sources dans la Distribution automatique des données v2 pour les services de stockage d'objets
Préparation des données et pipeline de distribution
Avant de commencer à utiliser la préparation des données et pipeline de distribution
Phases de construction du pipeline de données
Construire votre pipeline de données
Exportation et importation du pipeline de données
Références Pipeline de données
Références Briques
Configurer une brique
Téléchargeurs
Téléchargeur CSV
Données d'entrée pour téléchargeur CSV
Fichier manifeste
Fichier fil
Téléchargeur Google Analytics
Téléchargeur de feuilles de calcul Google Sheets
Téléchargeur Salesforce
Téléchargeur SQL
Intégrateurs
Intégrateur ADS
Champs calculés
Exécuteurs
Exécuteur SQL
Utilitaires
Schedule Execution Brick
Utilitaire de renommage des objets
Créateur de champs personnalisés
Chargeur de dimension de date
Références Entrepôt de données
Data Warehouse
Démarrage rapide de Data Warehouse
Data Warehouse et le flux de données de la plateforme GoodData
Utilisation prévue de Data Warehouse
Data Warehouse et Vertica
Architecture du Data Warehouse
Technologie de Data Warehouse
Modèle logique et physique du Data Warehouse
Conception du schéma de base de données
Conception de schéma logique - tableaux et vues
Clés primaires et étrangères
Modification du schéma logique
Conception du schéma physique - projections
Encodage des colonnes et compression
Ordre de tri des colonnes
Segmentation
Configuration de la superprojection initiale avec la commande CREATE TABLE
Création d'une nouvelle projection avec la commande CREATE PROJECTION
Modification du schéma physique
Stockage des colonnes et compression dans le Data Warehouse
Ports utilisés pour la connexion à GoodData
Interrogation du Data Warehouse
Limitations et différences de Data Warehouse par rapport aux autres SGBDR
Schéma unique par instance Data Warehouse
Aucun accès Admin Vertica
Utiliser COPY FROM LOCAL pour charger les données
Utilisation de COPY FROM S3 pour charger les données
Fonctions non prises en charge
Accès limité aux tables système
Accès limité aux fonctions spatiales
Limites des tables flex
Outil Database Designer non disponible
Limitations du pilote JDBC
Limitations de ressource
Autres limitations
Meilleures pratiques pour les entrepôts de données
Comprendre les codes d'erreur Vertica
Référence d'API de Data Warehouse
Utilisation des instances de Data Warehouse
Création d'une instance Data Warehouse
Page de détails de l'instance Data Warehouse
Consultation de vos instances Data Warehouse
Déprovisionner votre instance Data Warehouse
Gestion des utilisateurs et des droits d'accès
Rôles utilisateur Data Warehouse
Obtention d'une liste d'utilisateurs Data Warehouse
Ajout d'un utilisateur dans Data Warehouse
Modification d'un rôle utilisateur dans l'instance Data Warehouse
Examen des détails de l'utilisateur de Data Warehouse
Suppression d'un utilisateur de Data Warehouse
Exporter des données d'un entrepôt de données
Configuration d'une connexion à Data Warehouse
Connexion au Data Warehouse depuis des outils client SQL
Télécharger le pilote JDBC
Version du pilote Data Warehouse
Activer la journalisation pour le pilote JDBC
Préparer la chaîne de connexion JDBC
Accéder au Data Warehouse depuis le SQL SQuirrel
Connexion au Data Warehouse depuis Java
Connexion au Data Warehouse depuis JRuby
Installer JRuby
Accéder au Data Warehouse à l'aide de la bibliothèque Sequel
Installation d'une connexion de base de données pour Ruby
Installation de la prise en charge JRuby pour le Data Warehouse
Exemple de code Ruby pour le Data Warehouse
Références Distribution automatique de données
Distribution automatique des données
Utiliser la distribution automatique des données
Supprimer les données des ensembles dans Distribution automatique des données
Convention d'affectation des noms pour les objets de l'étape de sortie
Fuseaux horaires dans Distribution automatique des données
Configurer des processus de chargement de données
Références Console d'intégration de données
Accès à la console d'intégration des données
Écran de présentation de la console d'intégration des données
Écran des projets de la console d'intégration des données
Créer une source de données
Partager une source de données avec d'autres utilisateurs
Supprimer une source de données
Déployer un processus de chargement de données pour la Distribution automatique des données v2
Déployer un processus pour une brique de pipeline de données
Déployer un processus pour une brique LCM (gestion du cycle de vie)
Planifier un chargement de données
Planification d'un processus de chargement de données pour un groupe d'espaces de travail
Modifier un chargement de données planifié
Explore Advanced Options of a Scheduled Data Load
Configurer des paramètres de planification
Configuration de l'ordre de la planification
Planifier un chargement de données pour une exécution manuelle uniquement
Prévoir un processus de chargement de données planifié
Configurer une retentative automatique suite à l'échec d'un processus de chargement de données
Exécuter à la demande un processus de chargement de données planifié
Désactiver un processus de chargement de données planifié
Consulter un journal d'exécution de chargement de données
Créer une règle de notification pour un processus de chargement de données
Supprimer une règle de notification d'un processus de chargement de données
Réutiliser des paramètres dans plusieurs processus de chargement de données
Supprimer un chargement de données planifié
Charger des fichiers CSV sur votre espace de travail
Paramètres requis d'un fichier CSV
Charger des fichiers CSV sur un espace de travail avec LDM Modeler
Mettre à jour les données d'un ensemble de données dans un fichier CSV
Références Chargements de données supplémentaires
Liste blanche d'IP
Chargement de données via l'API REST
Suppression des anciennes données lors du chargement des nouvelles données dans un ensemble de données via API
Transformer les données pour les prévisions et recommandations de lots
Fonctions de préparation et d'évaluation des données
Stockage de données spécifique à un espace de travail
Stockage de données spécifique de l'utilisateur
Plans
Plans du pipeline de données
Plan ELT
FAQ sur le plan ELT
Suppression des enregistrements des ensembles de données
Administration des utilisateurs et des espaces de travail
Administrer des projets et objets de projets
Trouver l'ID d'un espace de travail
Trouver le jeton d'autorisation d'un espace de travail
Déterminer le moteur de base de données avec lequel un espace de travail est exécuté
Trouver le nom de projet
Renommer un projet
Cloner un projet
Valider un espace de travail
Créer un espace de travail
Passage d'un espace de travail à un autre
Quitter un espace de travail
Supprimer un espace de travail
Définir un fuseau horaire personnalisé pour un espace de travail
Supprimer des données d'un espace de travail
Accéder aux pages grises d'un espace de travail
Migrer des objets sélectionnés entre des espaces de travail
Acquisition des identificateurs d'objets pour les métadonnées du projet
Configurer différentes fonctionnalités à l'aide des paramètres de plateforme
Outil d'extension GoodData pour Chrome
Mutualisation sur la plateforme GoodData
Gérer des espaces de travail via LCM (Gestion du cycle de vie)
Implémentation de LCM
Configuration de LCM via API
Briques
Brique de publication
Brique de déploiement
Brique d'approvisionnement
Brique utilisateur
Brique de filtres utilisateurs
Comment utiliser une brique
Spécification des paramètres complexes
Types de sources de données d'entrée
Gérer les données d'un espace de travail et l'accès aux données
Gestion des ensembles de données
Ajouter une balise à un ensemble de données
Gestion des attributs
Ajouter une balise à un attribut
Découverte des libellés d'attributs et des chemins d'exploration
Trouver où un attribut est utilisé
Déterminer l'ID de valeur d'attribut
Attributs calculés
Gestion des faits
Ajouter une balise à un fait
Gestion des métriques
Ajouter une balise à une métrique
Gestion des variables
Afficher un modèle d'espace de travail
Utilisation des balises
Prise en main des droits d'accès aux données
Cas d'utilisation avancés de droits d'accès aux données
Créer des droits d'accès aux données pour des périodes de temps continues
Autorisation de modification des métriques, rapports et tableaux de bord du projet
Utilisation de variables pour contrôler la visibilité des données
Variables numériques et variables filtrées
Définir des variables numériques
Incorporation de variables numériques dans les espaces de travail
Define Filtered Variables
Incorporating Filtered Variables at the Metric Level
Mise à jour de la variable à l'aide de l'API REST
Gérer les utilisateurs d'un espace de travail
Provisionnement des utilisateurs aux domaines et aux projets
Rôles utilisateur
Autorisations d'accès aux rôles utilisateur
Créer un rôle utilisateur personnalisé
Utilisation de la brique utilisateurs pour provisionner les utilisateurs dans vos projets
Gérer les profils des membres d'un espace de travail
Trouver l'ID de l'utilisateur
Mettre à jour un e-mail utilisateur
Utilisation de groupes pour partager des tableaux de bord avec plusieurs utilisateurs
Invitation d'utilisateurs avec des droits d'accès aux données pré-appliqués
Désactiver ou supprimer des utilisateurs
Définir un format numérique par défaut pour votre compte utilisateur
GoodSuccess : données d'analyse de l'utilisation de GoodData
Développer la plateforme GoodData
Présentation de la plateforme GoodData
Conseils pour la performance
Performances de Data Warehouse
Éviter les opérations UPDATE inutiles
Check for Invalid Views
Ne pas surnormaliser votre schéma
Conseils généraux pour la conception des projections
Minimiser les associations de réseau
Choisir des critères de tri de projection
Conserver la projection prédéfinie dans les requêtes
Bénéficier des partitions de tables
Utiliser des tables de contrôle
Utiliser Run Length Encoding (RLE)
Utiliser le mot-clé EXPLAIN
Écrire des mises à jour de données volumineuses directement sur le disque
Signaler un problème de performance
Limites de la plateforme
Votre domaine GoodData
Centre de données GoodData
Sauvegarde des données
Événements de la plateforme d'audit
Types de jetons GoodData
Expiration de la session SST
Intégration de GoodData à votre application
Définition d'une marque blanche pour votre domaine
Configuration des en-têtes et pieds de page personnalisés pour les exportations de rapports PDF
Configurer DKIM pour l'e-mail sortant
Domaines par défaut et personnalisés
Modèles d'e-mail
Foire aux questions concernant la marque blanche
Définir une marque blanche pour un nouveau domaine
Définir une marque blanche pour un domaine existant
Définissez un CNAME et obtenez un certificat TLS
Choisir un administrateur de domaine
Lancement coordonné
Personnaliser le domaine de marque blanche
Incorporation d'éléments GoodData dans vos applications
Disponibilité des fonctions en mode incorporé et non incorporé
Analytical Designer Incorporé
Communication avec Analytical Designer incorporé
Incorporer un tableau de bord de KPI
Communication avec des tableaux de bord de KPI incorporés
Incorporation de formats de code
Aligner des sessions entre votre application et GoodData
Configuration des événements pour l'exploration dans Analytical Designer incorporé et les tableaux de bord de KPI
Capturer l'événement enregistrer une perception dans l'Analytical Designer intégré
Exemple de HTML pour les événements d'exploration
Configuration de l'authentification utilisateur et de SSO
Aperçu de l'authentification unique
SSO SAML avec GoodData
Configuration de l'authentification unique Fluig
Configuration de l'authentification unique Okta
Configurer l'authentification unique avec Auth0
Configuration du fournisseur d'identité à l'aide de Salesforce
Configuration de Windows Server avec AD FS pour GoodData SAML SSO
Utiliser l'approvisionnement d'utilisateurs juste à temps pour SAML dans un environnement SSO SAML
Utiliser le système pour l'approvisionnement d'utilisateurs de gestion d'identité multi-domaine dans un environnement SSO SAML
Authentification unique PGP de GoodData
Comment générer une paire de clés publique/privée
Localisation de métadonnées
Référence d'API
Journal des modifications et information de version d'API
SDK de GoodData
Client HTTP Java de GoodData
Sécurité et conformité de la plateforme
Security Shield
Enterprise Shield
Extension HIPAA
Extension GDPR-S
Protocoles de sécurité et chiffrements TLS pris en charge
Fonctionnalité d'emprunt d'identité
Stratégie de mot de passe
Pare-feu
Glossaire GoodData
Ressources supplémentaires
Fonctionnalités obsolètes
Ressource API identifiants Amazon S3
Ressource API de téléchargement des données
Adresses IP utilisées pour le chargement des données
Explorateurs interactifs
Java SDK Versions 2.32.0 et antérieures
JDBC Driver Version 3.0.2 à 3.1.2
Ancienne méthode SSO Salesforce
Méthode PGP SSO GET
Clé publique SSO PGP
Modèles de projet
SFTP pour le chargement de données sur la plateforme GoodData
Signature SHA-1 pour SAML
Support de TLS Version 1.0 et 1.1
Type d'objet de visualisation dans les métadonnées du projet
Téléchargements
Dépannage
Problèmes relatifs à Data Warehouse (ADS)
Problèmes de planification
Problèmes d'incorporation
Notes de publication
Home
GoodData プランのドキュメントを参照する
GoodData 価格プランのアドオン
GoodData の使用を開始する方法
システム要件と対応ブラウザ
Learn the Platform Essentials
GoodDataポータル
Essential Terms and Concepts
Work with Workspaces
GoodData Demo Workspace
Create Workspaces
Load Data
Import CSV Files into a GoodData Workspace
Integrate a Data Source into a GoodData Workspace
Integrate a Data Source for a Data Warehouse
Import Sample Data to Your Data Source
Integrate a Data Source for an Object File Storage
Create a Relationship between Datasets
Publish your Logical Data Model
Load Data from a Data Source to a GoodData Workspace
Create Metrics
Create and Save a Metric
Add Insights and Dashboards
Create an Insight
Explore and Edit Insights on Dashboards
Build Dashboards
Share GoodData
Add and Manage Users in a Workspace
Embedding Analytical Designer
Embedding Dashboards
ダッシュボードとインサイト
Analytical Designer
データの視覚化
インサイトの作成
インサイトタイプ
棒グラフ
バブルグラフ
ブレットチャート
縦棒グラフ
コンボグラフ
ドーナツグラフ
ジオチャート(プッシュピン)
ジオチャート(プッシュピン)用にデータを設定する
ヘッドライン
ヒートマップ
線グラフ
円グラフ
散布図
積み上げ面グラフ
テーブル
ツリーマップ
Analytical Designer のフィルター
値によるインサイトのフィルタリング
ランク付けフィルター
メトリックを日付でフィルターする
日付フィルターで週を有効化
インサイトでデータを並べ替える
インサイトプロパティーを設定
メトリックを使用する
Analytical Designer 内のデータカタログ
メトリック名の変更
数値書式を設定
時系列の比較
インサイトでメトリックを作成
メトリックをスタックする
インサイトのエクスポートと埋め込み
インサイトのエクスポート
インサイトの埋め込み
Analytical Designer - FAQ (よくある質問)
ダッシュボード
ダッシュボードを作成する
ダッシュボードで項目を編集
ダッシュボードを共有する
ダッシュボードの名前を変更
ダッシュボードを複製する
ダッシュボードを削除する
KPI にアラートを追加する
ダッシュボードの自動メール送信をスケジュールする
ダッシュボード内のフィルター
ダッシュボード内の日付フィルター
ダッシュボードで日付フィルターをカスタマイズする
ダッシュボードでドリルインする
ダッシュボードからインサイトにドリル
他のダッシュボードにドリルする
ダッシュボードから URL にドリルする
ダッシュボードでドリルダウンする
ダッシュボードをエクスポート
ダッシュボードを埋め込む
ダッシュボード FAQ - よくある質問
カスタムテーマを作成
テーマのプロパティ
テーマ例
ライフサイクル管理を使用してテーマを管理する
カスタムカラーパレットをインポートする
MAQL - 分析用クエリ言語
MAQL と多次元性
MAQL 対 SQL
MAQL を使ってメトリックを書き始める
MAQL式のリファレンス
集約関数
SUM
AVG
MAX
MIN
MEDIAN
COUNT
GREATEST
LEAST
統計関数
分散関数
標準偏差関数
共分散関数
CORREL
最小二乗関数
数値関数
算術演算
ABS
SIGN
SQRT
LOG
LN
EXP
POWER
丸め関数と切り捨て関数
ROUND
FLOOR
CEILING
TRUNC
ランク
ランク付けのバリエーション
WITHIN 句
WHERE TOP または BOTTOM(n) IN
WHERE TOP または BOTTOM(n) OF
Using Ranking Filters
PERCENTILE
細分性キーワード
インサイト属性をキーワードで上書きする
BY
BY ALL
BY 属性 ALL IN ALL OTHER DIMENSIONS
BY ALL IN ALL OTHER DIMENSIONS
BY ALL IN ALL OTHER DIMENSIONS EXCEPT FOR 属性
時間変換
過去の期間を参照する関数
FOR Previous
FOR PreviousPeriod
将来の期間を参照する関数
FOR Next
FOR NextPeriod
予測 - トレンドラインをレポートに追加する
累計関数
ローリング ウィンドウ
コア関数の累計
累計統計関数
フィルター式
WHERE句を使用してフィルタリングする
フィルターを定義するための演算子
等号演算子
非等値演算子
その他の関係演算子
IN
NOT IN
BETWEEN
NOT BETWEEN
浮動期間の参照
THIS マクロ
PREVIOUS マクロ
NEXT マクロ
フィルタリングされた変数をメトリック定義に追加する
HAVING 句を使用してフィルタリングする
親フィルターを上書き
PARENTフィルター
LIKE 句を使用してフィルタリングする
論理関数
IF THEN ELSE
CASE
IFNULL
フィルターを組み合わせるための論理式
NOT
OR
AND
XAE - Extensible Analytics Engine
Extensible Analytics Engine (XAE) - よくある質問
GoodData プラットフォームのフィルター
日付と時刻
日付属性の階層
日付属性の参照
日付形式を変更
カスタム日付ディメンションを管理する
インサイトで数値をフォーマットする
条件付き数値フォーマット
色の書式設定の参照
データ統合
GoodData のデータモデリング
GoodData の論理データモデル構成
論理データモデル内のデータセット
論理データモデル内のファクト
論理データモデル内の属性
論理データモデル内の日付
論理データモデル内の接続ポイント
論理データモデルとデータソース間のマッピング
論理データモデルを手動で作成
論理データモデルを CSV ファイルから作成
クラウドデータウェアハウスから論理データモデルを作成
クラウドオブジェクトストレージサービスから論理データモデルを作成する
論理データモデルをアウトプットステージから作成
論理データモデルをアップデート
論理データモデルを公開
論理データモデルをインポート/エクスポート
同じセグメント内のクライアントワークスペースの LDM にカスタムフィールドを追加します
Using a Custom Time Dimension in a Logical Data Model
論理データモデルをベースにアウトプットステージを作成
論理データモデルの多対多
多対多モデリングパフォーマンス
データモデリングと MAQL
MAQL DDL
Change the Length of Attribute Labels
日付ディメンションが多すぎる場合、イベントを試す
データの準備と配信
データウェアハウスおよびオブジェクトストレージサービスからの直接データ配信
GoodData - Azure Blob ストレージ統合の詳細
GoodData-Azure SQL Database 統合の詳細
GoodData-Azure Synapse Analytics 統合の詳細
GoodData-BigQuery 統合の詳細
GoodData-Microsoft SQL Server 統合の詳細
GoodData-MongoDB BI コネクター統合の詳細
GoodData - PostgreSQL 統合の詳細
GoodData-Redshift 統合の詳細
GoodData-S3 統合の詳細
GoodData-Snowflake 統合の詳細
データウェアハウスを現行の LDM に基づき GoodData に直接統合
Amazon S3 バケットのデータを GoodData に直接統合
データウェアハウスの自動データ配信 v2
データウェアハウスの自動データ配信 v2 ロードモード
データウェアハウスの自動データ配信 v2 を設定
データウェアハウスの自動データ配信 v2 アウトプットステージオブジェクトの命名規則
日付ウェアハウススキーマに基づいてアウトプットステージを作成
データウェアハウスの自動データ配信 v2 タイムゾーン
データウェアハウスの自動データ配信 v2 オブジェクトストレージサービス
データウェアハウスの自動データ配信 v2 オブジェクトストレージサービスのロードモード
データウェアハウスの自動データ配信 v2 オブジェクトストレージサービスを設定
データウェアハウスの自動データ配信 v2 オブジェクトストレージサービスソースファイルの命名規則
データの準備と配信パイプライン
開始前に
データパイプライン構築の過程
データパイプラインの構築
データパイプラインをエクスポートおよびインポートする
データパイプラインリファレンス
ブリックリファレンス
ブリックの環境設定
ダウンローダー
CSV ダウンローダー
CSV ダウンローダー用入力データ
マニフェストファイル
フィードファイル
Google アナリティクスダウンローダー
Google スプレッドシートダウンローダー
Salesforce ダウンローダー
SQL ダウンローダー
インテグレーター
ADS インテグレーター
計算したフィールド
実行プログラム
SQL 実行プログラム
公共料金
Schedule Execution Brick
オブジェクト名変更ユーティリティー
カスタムフィールドクリエーター
日付ディメンションローダー
Data Warehouse リファレンス
Data Warehouse
Data Warehouseのクイックスタート
Data WarehouseとGoodDataプラットフォームのデータフロー
Data Warehouseの用途
Data WarehouseとVertica
Data Warehouseのアーキテクチャ
Data Warehouseのテクノロジー
Data Warehouseの論理モデルと物理モデル
データベーススキーマの設計
論理スキーマの設計 - テーブルとビュー
プライマリキーと外部キー
論理スキーマを変更する
物理スキーマの設計 - プロジェクション
列の圧縮エンコード
列のソート順
セグメンテーション
CREATE TABLEコマンドを使用して最初のスーパープロジェクションを設定する
CREATE PROJECTIONコマンドを使用して新しいプロジェクションを作成する
物理スキーマを変更する
Data Warehouseにおける列型ストレージと圧縮
GoodData との接続に使用するポート
Data Warehouseにクエリを行う
Data Warehouseの制限事項および他のRDBMSとの相違点
各Data Warehouseインスタンスにつき1つのスキーマ
Verticaへの管理者アクセス権はない
COPY FROM LOCALを使用してデータを読み込む
COPY FROM S3 を使用してデータを読み込む
未対応の機能
システムテーブルへのアクセス制限
空間関数へのアクセス制限
フレックステーブルの制限
Database Designerツールは利用できない
JDBCドライバの制限
リソースの制限
他の制限
データウェアハウスのベストプラクティス
Vertica エラーコードを理解する
Data Warehouse APIの参照
Data Warehouse インスタンスの操作方法
Data Warehouseインスタンスを作成する
Data Warehouseインスタンス詳細ページ
Data Warehouseインスタンスを確認する
Data Warehouseインスタンスのプロビジョニングを解除する
ユーザーとアクセス権を管理する
Data Warehouseのユーザーの役割
Data Warehouseユーザーのリストを取得する
Data Warehouseにユーザーを追加する
Data Warehouseインスタンスのユーザーの役割を変更する
Data Warehouse ユーザーの詳細を確認する
Data Warehouseからユーザーを削除する
データウェアハウスからのデータのエクスポート
Data Warehouse への接続のセットアップ方法
SQLクライアントツールからData Warehouseに接続する
JDBCドライバをダウンロードする
Data Warehouseドライバのバージョン
JDBCドライバのログを有効にする
JDBC接続文字列を準備する
SQuirrel SQLからData Warehouseにアクセスする
JavaからData Warehouseに接続する
JRubyからData Warehouseに接続する
JRubyをインストールする
Sequelライブラリを使用してData Warehouseにアクセスする
Rubyへのデータベース接続をインストールする
Data WarehouseのJRubyサポートをインストールする
Data Warehouse用のRubyコード例
自動化されたデータ配信リファレンス
自動データ配信
自動データ配信を使用する
自動データ配信内のデータセットからデータを削除する
出力ステージオブジェクトの命名規則
自動データ配信のタイムゾーン
データロード処理の設定
データ統合コンソールリファレンス
データ統合コンソールにアクセスする
データ統合コンソールの概要画面
データ統合コンソールプロジェクト画面
データソースを作成
データソースを他のユーザーと共有
データソースを削除
Automated Data Distribution v2 からのデータロード処理を実行
データパイプラインブリックの処理を実行
ライフサイクル管理(LCM)ブリックの処理を実行
データロードをスケジュールする
ワークスペースグループのデータロードプロセスをスケジュールする
スケジュールされたデータロードを編集する
スケジュールされたデータロードの詳細オプションを確認する
スケジュールパラメーターを設定
スケジュールシーケンスを設定
手動実行のみのデータロードをスケジュールする
スケジュールされたデータロード処理の時間を測る
失敗したデータロード処理の自動再試行を設定する
スケジュールされたデータロード処理をオンデマンドで実行する
スケジュールされたデータロード処理を無効にする
データロード実行のログを確認する
データロード処理の通知ルールを作成する
データロード処理から通知ルールを削除する
複数のデータの読み込み処理でパラメーターを再使用
スケジュールされたデータロードを削除する
ワークスペースに CSV ファイルをロード
CSV ファイル必要条件
LDM Modeler のあるワークスペースに CSV ファイルをロード
CSV ファイルからデータセットのデータを更新
追加のデータロードリファレンス
IPホワイトリスト
REST API 経由でデータを読み込む
API 経由で新しいデータをデータセットに読み込む際に古いデータを消去する
一括予測と推奨のためにデータを変換する
データ準備とデータ評価機能
ワークスペース固有のデータストレージ
ユーザー固有のデータストレージ
ブループリント
データパイプライン青写真
ELT 青写真
ELT青写真のFAQ
データセットからレコードを削除する
ワークスペースとユーザー管理
プロジェクトとプロジェクトオブジェクトの管理
ワークスペース ID を検索
ワークスペース認証トークンを検索
ワークスペースが実行されているデータベースエンジンを確認
プロジェクト名を検索する
プロジェクトの名前を変更する
プロジェクトのクローンを作成する
ワークスペースを検証
ワークスペースを作成
ワークスペースを切り替える
ワークスペースを終了
ワークスペースを削除
ワークスペースのカスタムタイムゾーンを設定します
ワークスペースからのデータの削除
ワークスペースのグレイページにアクセス
選択したオブジェクトをワークスペース間で移行
プロジェクトメタデータのオブジェクト識別子を取得する
プラットフォーム設定で複数の機能を設定
GoodData の Chrome 用拡張ツール
GoodData プラットフォームのマルチテナンシーを参照してください
ライフサイクル管理によるワークスペースの管理
LCM の実装
APIを使用してLCMを設定する
ブリック
ブリックをリリース
ブリックのロールアウト
ブリックのプロビジョニング
ユーザーブリック
ユーザーフィルターブリック
ブリックの使用方法
複雑なパラメーターを指定する
入力データソースのタイプ
ワークスペースデータとデータアクセスの管理
データセットを管理する
タグをデータセットに追加する
属性を管理する
タグを属性に追加する
属性ラベルとドリルパスを特定する
属性の使用場所を検索する
属性値 ID を特定する
計算された属性
ファクトを管理する
タグをファクトに追加する
メトリックを管理する
タグをメトリックに追加する
変数を管理する
ワークスペースモデルを表示
タグを使用する
データ権限の基本
高度なデータのアクセス権限のユースケース
ローリング期間に対してデータ許可を作成
プロジェクトメトリック、レポート、ダッシュボードの編集権限
変数を使用してデータ視覚化をコントロール
数値変数とフィルター変数の比較
数値変数を定義する
数値変数をワークスペースに組み込む
Define Filtered Variables
Incorporating Filtered Variables at the Metric Level
REST API を使って変数を更新する
ワークスペースでのユーザーの管理
ユーザーをドメインとプロジェクトにプロビジョニングする
ユーザーの役割
ユーザーの役割の権限
カスタムのユーザーの役割を作成する
ユーザーブリックを使用してユーザーをプロジェクトにプロビジョンする
ワークスペースメンバープロファイルの管理
ユーザー ID を検索
ユーザーのメールアドレスを更新する
グループを使用して複数のユーザーとダッシュボードを共有する
事前適用したデータ権限を持つユーザーを招待する
ユーザーを無効化または削除する
ユーザーアカウントに既定の数値形式を設定する
GoodSuccess - GoodData 利用状況分析
GoodData プラットフォームを拡張
GoodData プラットフォームの概要
パフォーマンスのヒント
Data Warehouseのパフォーマンス
不要なUPDATEを避ける
Check for Invalid Views
スキーマを正規化しすぎない
一般的なプロジェクション設計のヒント
ネットワーク結合を最小限にする
プロジェクションのソート基準を選択する
定義された射影をクエリ内に維持
テーブルパーティションの活用
モニタリングテーブルを使用する
ランレングスエンコード (RLE) を使用する
EXPLAINキーワードを使用する
大容量データ更新をディスクに直接書き込む
パフォーマンスの問題を報告する
プラットフォームの制限
GoodDataドメイン
GoodData データセンター
データのバックアップ
プラットフォームのイベントを監査する
GoodData のトークンタイプ
SSTセッションの有効期限切れ
GoodData をアプリケーションに統合する
既存ドメインをホワイトラベル化する
PDF レポートエクスポートにカスタムヘッダーとフッターを構成する
送信メールにDKIMを設定する
デフォルトとカスタムドメイン
メールテンプレート
ホワイトラベリングに関するFAQ
新しいドメインをホワイトラベル化する
既存ドメインをホワイトラベル化する
CNAME のセットアップと TLS 認証の取得
ドメインの管理者を選ぶ
ロールアウトを調整する
ホワイトラベル化したドメインをカスタマイズする
アプリケーションに GoodData 要素を埋め込む
埋め込みモード/非埋め込みモードで利用できる機能と利用できない機能
Analytical Designer を埋め込む
埋め込み Analytical Designer との通信
KPI ダッシュボードを埋め込む
埋め込み KPI ダッシュボードとの通信
コード形式を埋め込む
アプリケーションと GoodData 間のセッションの調整
埋め込み Analytical Designer と KPI ダッシュボードでドリルインするイベントをセットアップする
埋め込み Analytical Designer から「インサイトイベントとして保存」をキャプチャ
ドリルイベントのHTMLサンプル
ユーザー認証と SSO をセットアップする
シングルサインオンの概要
GoodData による SAML SSO
Fluig シングルサインオンのセットアップ
Okta シングルサインオンのセットアップ
Auth0 シングルサインオンのセットアップ
Salesforce でアイデンティティプロバイダを構成する
GoodData SAML SSO 向けに AD FS で Windows を設定する
SAML SSO 環境で、SAML Just-in-Time ユーザープロビジョニングを使用する
SAML SSO 環境では、クロスドメイン ID 管理ユーザープロビジョニング用のシステムを使用する
GoodData PGP シングルサインオン
公開鍵と秘密鍵のペアを生成する方法
メタデータのローカライズ
APIのリファレンス
API バージョン情報と変更ログ
GoodData SDK
GoodData Java HTTP クラインと
プラットフォームセキュリティとコンプライアンス
セキュリティシールド
Enterprise Shield
HIPAA アドオン
GDPR-S アドオン
サポート済み TLS セキュリティプロトコルと暗号
匿名化機能
パスワードポリシー
ファイアーウォール
GoodData 用語集
その他のリソース
廃止された機能
Amazon S3 Credentials API リソース
データアップロード API リソース
データのロードに使用した IP アドレス
インタラクティブエクスプローラー
Java SDK バージョン 2.32.0 以降
JDBC ドライバ・バージョン 3.0.2 から 3.1.2
旧式の Salesforce SSO メソッド
PGP SSO GET メソッド
PGP SSO パブリックキー
プロジェクトテンプレート
SFTP で GoodData プラットフォームにデータをロード
SAML 用 SHA-1 署名
TLS バージョン 1.0 および 1.1 のサポート
プロジェクトメタデータの visualization オブジェクトタイプ
ダウンロード
トラブルシューティング
Data Warehouse(ADS)の問題
スケジュールの諸問題
埋め込みの諸問題
リリースノート
Home
Encontrar documentação para seu plano GoodData
Complementos dos planos de preços do GoodData
Como aprender a usar o GoodData
Requisitos do sistema e navegadores suportados
Learn the Platform Essentials
Portal GoodData
Essential Terms and Concepts
Work with Workspaces
GoodData Demo Workspace
Create Workspaces
Load Data
Import CSV Files into a GoodData Workspace
Integrate a Data Source into a GoodData Workspace
Integrate a Data Source for a Data Warehouse
Import Sample Data to Your Data Source
Integrate a Data Source for an Object File Storage
Create a Relationship between Datasets
Publish your Logical Data Model
Load Data from a Data Source to a GoodData Workspace
Create Metrics
Create and Save a Metric
Add Insights and Dashboards
Create an Insight
Explore and Edit Insights on Dashboards
Build Dashboards
Share GoodData
Add and Manage Users in a Workspace
Embedding Analytical Designer
Embedding Dashboards
Dashboards e insights
Analytical Designer
Visualizar seus dados
Criar insights
Tipos de insight
Gráficos de barra
Gráficos de bolha
Gráficos de Bullets
Gráficos de coluna
Gráficos de combinação
Gráficos de rosca
Geocharts (pushpins)
Configurar dados dos geocharts (pushpins)
Cabeçalhos
Mapas de calor
Gráficos de linha
Gráficos de Pizza
Gráficos de dispersão
Gráficos de área empilhada
Tabelas
Mapas de árvore
Filtros no Analytical Designer
Filtrar insights por valores
Filtro de Classificação
Filtrar métricas por data
Ativar semanas nos filtros de data
Classificar dados em insights
Configurar propriedades do insight
Trabalhar com métricas
Catálogo de dados no Analytical Designer
Renomear métricas
Formatar números
Comparação ao longo de um período
Criar métricas nos insights
Empilhar métricas
Exportar e incorporar insights
Exportar insights
Incorporar insights
Analytical Designer - Perguntas Frequentes
Dashboards
Criar dashboards
Editar itens nos dashboards
Compartihar dashboards
Renomear dashboards
Duplicar dashboards
Excluir dashboards
Adicionar um alerta ao KPI
Programar envio automático e-mails dos dashboards
Filtros nos dashboards
Filtros de data nos dashboards
Personalizar filtros de data nos dashboards
Detalhamento nos dashboards
Detalhamento de insights nos dashboards
Detalhar em outro dashboard
Detalhamento até a URL a partir dos dashboards
Detalhamento aprofundado nos dashboards
Exportar dashboards
Incorporar dashboards
Perguntas frequentes sobre dashboards
Criar temas personalizados
Propriedades do tema
Exemplos de tema
Gerenciar temas com o LCM
Importação de Paletas de Cores Personalizadas
MAQL - linguagem de consulta analítica
MAQL e multidimensionalidade
MAQL x SQL
Introdução ao uso da MAQL para criar métricas
Referência de expressão de MAQL
Funções de agregação
SUM
AVG
MAX
MIN
MEDIAN
COUNT
GREATEST
LEAST
Funções estatísticas
Funções de variância
Funções de desvio padrão
Funções de covariância
CORREL
Funções de mínimos quadrados
Funções numéricas
Operações aritméticas
ABS
SIGN
SQRT
LOG
LN
EXP
POWER
Funções de arredondamento e truncamento
ROUND
FLOOR
CEILING
TRUNC
Classificação
Variações de classificação
Cláusula WITHIN
WHERE TOP ou BOTTOM(n) IN
WHERE TOP ou BOTTOM(n) OF
Using Ranking Filters
PERCENTILE
Palavras-chave de granularidade
Como substituir atributos do insight pela palavra-chave BY
BY
BY ALL
Atributo BY ALL IN ALL OTHER DIMENSIONS
BY ALL IN ALL OTHER DIMENSIONS
Atributo BY ALL IN ALL OTHER DIMENSIONS EXCEPT FOR
Transformações de tempo
Funções para referir aos períodos de tempo passados
FOR anterior
FOR PreviousPeriod
Funções de referência a períodos futuros
FOR próximo
FOR NextPeriod
FORECAST - Adicionar uma linha de tendência a um relatório
Funções totais correntes
Janela de rolamento
Totais correntes para funções principais
Funções estatísticas de totais correntes
Expressões de filtro
Como filtrar com a cláusula WHERE
Operadores para filtros de definição
Operador Igual
Operador Diferente de
Outros operadores relacionais
IN
NOT IN
BETWEEN
NOT BETWEEN
Referenciando períodos de horário flutuante
Macro THIS
Macro PREVIOUS
Macro NEXT
Adicionando variáveis filtradas a definições de métrica
Filtragem com a cláusula HAVING
Substituição de filtros principais
Filtros PRINCIPAIS
Filtragem com a cláusula LIKE
Funções lógicas
IF THEN ELSE
CASE
IFNULL
Expressões lógicas para filtros de combinação
NOT
OR
AND
XAE - Mecanismo Extensible Analytics
Mecanismo de análise extensível (XAE) - Perguntas Frequentes
Filtros na plataforma GoodData
Datas e Horas
Hierarquias de atributo de data
Referência de atributo de data
Alterar formato de data
Gerenciar dimensões de data personalizadas
Formatando números nos insights
Formatação Condicional de Número
Referência de Formatação de Cores
Integração de dados
Modelagem de dados no GoodData
Componentes do modelo de dados lógicos no GoodData
Conjuntos de dados nos modelos de dados lógicos
Fatos nos modelos de dados lógicos
Atributos nos modelos de dados lógicos
Datas no modelo de dados lógicos
Pontos de conexão nos modelos de dados lógicos
Mapeamento entre um modelo de dados lógicos e a origem dos dados
Criar um modelo de dados lógicos manualmente
Criar um modelo de dados lógicos usando arquivos CSV
Criar um modelo de dados lógicos utilizando seu data warehouse na nuvem
Criar um modelo de dados lógicos utilizando seu serviço de armazenamento de objetos na nuvem
Criar um modelo de dados lógicos pelo estágio de saída
Atualizar um modelo de dados lógicos
Publicar um modelo de dados lógicos
Importar e exportar um modelo de dados lógicos
Adicionar campos personalizados aos LDMs em áreas de trabalho do cliente no mesmo segmento
Using a Custom Time Dimension in a Logical Data Model
Criar o estágio de saída com base no seu modelo de dados lógicos
Muitos-para-muitos nos modelos de dados lógicos
Desempenho da modelagem muitos para muitos
Modelagem de dados e MAQL
MAQL DDL
Change the Length of Attribute Labels
Em caso de excesso de dimensões de data, experimente Eventos
Preparação e distribuição de dados
Distribuição direta de dados por data warehouses e serviços de armazenamento de objeto
Detalhes da integração do armazenamento do GoodData com o Azure Blob
Detalhes da integração entre GoodData e Banco de Dados SQL do Azure
Detalhes da integração entre GoodData e Azure Synapse Analytics
Detalhes da integração GoodData-BigQuery
Detalhes da integração entre GoodData e Microsoft SQL Server
Detalhes da integração do GoodData com o MongoDB BI Connector
Detalhes da integração entre GoodData e PostgreSQL
Detalhes da integração GoodData-Redshift
Detalhes da integração do GoodData com S3
Detalhes da integração GoodData-Snowflake
Integrar data warehouses diretamente ao GoodData com base em um LDM existente
Integrar dados do bucket Amazon S3 diretamente ao GoodData
Distribuição automatizada de dados v2 para data warehouses
Modos de carregamento na distribuição automatizada de dados v2 para data warehouses
Configurar a distribuição automatizada de dados v2 para data warehouses
Convenção de nomenclatura dos objetos de estágio de saída na distribuição automatizada de dados v2 para data warehouses
Criar o estágio de saída com base no seu esquema de data warehouse
Fusos horários na distribuição automatizada de dados v2 para data warehouses
Distribuição automatizada de dados v2 para serviços de armazenamento de objetos
Modos de carregamento na distribuição automatizada de dados v2 para serviços de armazenamento de objetos
Configurar a distribuição automatizada de dados v2 para serviços de armazenamento de objetos
Convenção de nomenclatura dos arquivos de origem na distribuição automatizada de dados v2 para serviços de armazenamento de objetos
Pipeline de preparação e distribuição de dados
Antes de começar o pipeline de preparação e distribuição de dados
Fases da criação do pipeline de dados
Crie seu pipeline de dados
Exportar e importar pipeline de dados
Referência do pipeline de dados
Referência do brick
Configurar um brick
Downloaders
Downloader de CSV
Dados de entrada para o Downloader de CSV
Arquivo de manifesto
Arquivo de Feed
Downloader do Google Analytics
Google Sheets Downloader
Downloader do Salesforce
Downloader do SQL
Integradores
Integrador de ADS
Campos computados
Executores
Executor SQL
Utilitários
Schedule Execution Brick
Utilitário para renomear objetos
Criador de campo personalizado
Carregador de Dimensão de Data
Referência do data warehouse
Data Warehouse
Introdução ao Data Warehouse
Data Warehouse e o fluxo de dados da plataforma GoodData
Uso pretendido do Data Warehouse
Data Warehouse e Vertica
Arquitetura do Data Warehouse
Tecnologia do Data Warehouse
Modelo lógico e físico do Data Warehouse.
Design do esquema do banco de dados
Design do esquema lógico - tabelas e exibições
Chaves primárias e externas
Alteração do esquema lógico
Design do esquema físico - projeções
Codificação e compressão de colunas
Ordem de classificação da coluna
Segmentação
Como configurar a superprojeção inicial com o comando CREATE TABLE
Como criar uma nova projeção com o comando CREATE PROJECTION
Alteração do esquema físico
Armazenamento e compressão de colunas no Data Warehouse
Portas usadas para conectar-se ao GoodData
Consulta ao Data Warehouse
Limitações e diferenças entre o Data Warehouse e outros RDBMS
Esquema único por instância do Data Warehouse
Sem acesso ao administrador do Vertica
Uso de COPY FROM LOCAL para carregar dados
Usar COPY FROM S3 para carregar dados
Funções incompatíveis
Acesso limitado às tabelas do sistema
Acesso limitado às funções espaciais
Limites de tabela flexíveis
A ferramenta Database Designer não está disponível
Limitações do driver JDBC
Limitações de recursos
Outras limitações
Melhores práticas de data warehouse
Entendendo os códigos de erro do Vertica
Referência de API do Data Warehouse
Como trabalhar com instâncias do Data Warehouse
Como criar uma instância do Data Warehouse
Página de detalhes sobre a instância do Data Warehouse
Como revisar a instância do seu Data Warehouse
Como remover a instância do seu Data Warehouse
Administração dos usuários e dos direitos de acesso
Funções de usuário do Data Warehouse
Como obter uma lista de usuários do Data Warehouse
Como adicionar um usuário ao Data Warehouse
Como alterar uma função de usuário na instância do Data Warehouse
Revisando os detalhes de usuários do Data Warehouse
Como remover um usuário do Data Warehouse
Exportando dados do data warehouse
Como configurar uma conexão para o Data Warehouse
Como se conectar a um Data Warehouse a partir de ferramentas de cliente de SQL
Download o driver JDBC
Versão do driver do Data Warehouse
Habilitação de login para driver JDBC
Preparação do string de conexão JDBC
Acessar o Data Warehouse a partir do SQuirrel SQL
Como se conectar a um Data Warehouse a partir do Java
Como se conectar a um Data Warehouse a partir do JRuby
Instalar JRuby
Acessar o Data Warehouse utilizando a biblioteca de sequências
Como instalar a conectividade do banco de dados no Ruby
Como instalar o suporte do Data Warehouse para JRuby
Exemplo de código Ruby para Data Warehouse
Referência de distribuição automatizada de dados (ADD)
Distribuição automatizada de dados
Uso da distribuição automatizada de dados
Exclusão de dados de conjunto de dados na Distribuição Automatizada de Dados
Convenção de nomenclatura para objetos do estágio de saída
Fuso horários na Distribuição Automatizada de Dados
Configuração de processos de carregamento de dados
Referência do console de integração de dados
Acesso ao console de integração de dados
Tela de visão geral do console de integração de dados
Tela de projetos do console de integração de dados
Criar uma fonte de dados
Compartilhar uma fonte de dados com outros usuários
Excluir uma fonte de dados
Implantar um processo de carregamento de dados para distribuição automatizada de dados v2
Implantar um processo para um brick de pipeline de dados
Implantar um processo para um brick de gerenciamento de ciclo de vida (LCM)
Programar um carregamento de dados
Programe un proceso de carga de datos para un grupo de espacios de trabajo
Editar um carregamento de dados programado
Explore Advanced Options of a Scheduled Data Load
Configurar parâmetros de programação
Configurar sequências de programação
Programar um carregamento de dados apenas para execução manual
Temporizar um processo de carregamento de dados programado
Configurar a repetição automática de um processo de carregamento de dados não executado
Executar um processo de carregamento de dados programado por demanda
Desativar um processo de carregamento de dados programado
Analisar um registro de execução do carregamento de dados
Criar uma regra de notificação para um processo de carregamento de dados
Excluir uma regra de notificação de um processo de carregamento de dados
Reutilizar parâmetros em vários processos de carregamento de dados
Excluir um carregamento de dados programado
Carregar arquivos CSV no seu espaço de trabalho
Requisitos de arquivo CSV
Carregar arquivos CSV em um espaço de trabalho com o LDM Modeler
Atualizar dados em um conjunto de dados usando um arquivo CSV
Referência de carregamento adicional de dados
Listas brancas de IPs
Carregando dados via API REST
Excluir dados antigos e carregar novos dados para o conjunto de dados via API
Transformação de dados em previsões e recomendações em lote
Funções de preparação e avaliação de dados
Armazenamento de dados específico do espaço de trabalho
Armazenamento de dados específicos do usuário
Planos
Plano da pipeline de dados
Plano ELT
Perguntas e Respostas sobre o Plano ELT
Excluindo registros em conjunto de dados
Administração de usuários e de espaços de trabalho
Administração de projetos e objetos do projeto
Localizar ID do espaço de trabalho
Localizar o token de autorização do espaço de trabalho
Descobrir em que mecanismo de banco de dados um espaço de trabalho é executado
Localizar o nome do projeto
Renomear um projeto
Clonar um projeto
Validar um espaço de trabalho
Criar um espaço de trabalho
Alternar entre espaços de trabalho
Sair de um espaço de trabalho
Excluir um espaço de trabalho
Definir um fuso horário personalizado para o espaço de trabalho
Exclusão de dados de um espaço de trabalho
Acessar as páginas cinzas de um espaço de trabalho
Migrar objetos selecionados entre espaços de trabalho
Adquirindo identificadores de objeto para metadados do projeto
Configurar vários recursos utilizando configurações da plataforma
Ferramenta de extensão do GoodData para o Chrome
Multilocação na plataforma GoodData
Gerenciamento de espaços de trabalho via LCM
Implementação de LCM
Configuração de um LCM via API
Bricks
Brick de liberação
Brick de implantação
Brick de provisionamento
Brick dos usuário
Brick de filtros de usuário
Como usar um brick
Especificação de parâmetros complexos
Tipos de origens dos dados de entrada
Gerenciamento de dados e acesso a dados do espaço de trabalho
Uso de conjunto de dados
Adicionar uma tag a um conjunto de dados
Uso de atributos
Adicionar uma tag a um atributo
Detecção de rótulos de atributos e caminhos de detalhamento
Localizar onde um atributo é usado
Determinar a ID do valor de atributo
Atributos calculados
Uso de fatos
Adicionar uma tag a um fato
Uso de métricas
Adicionar uma tag a uma métrica
Uso de variáveis
Exibir um modelo de espaço de trabalho
Como usar tags
Iniciando o uso de permissões de dados
Casos de uso de permissões de dados avançadas
Criar permissões de dados para períodos de tempo progressivos
Permissão para editar as métricas, relatórios e dashboards do projeto.
Usando variáveis para controlar a visibilidade dos dados
Variáveis numéricas vs. filtradas
Definição das variáveis numéricas
Como incorporar variáveis numéricas nos espaços de trabalho
Define Filtered Variables
Incorporating Filtered Variables at the Metric Level
Atualizando a variável usando a API REST
Gerenciamento de usuários nos espaços de trabalho
Provisionar usuários a domínios e a projetos
Funções do usuário
Permissões de funções do usuário
Criar uma função de usuário personalizado
Usando o brick de usuários para provisionar usuários nos seus projetos
Gerenciamento de perfis de membro do espaço de trabalho
Localizar ID do usuário
Atualização de um e-mail de usuário
Usar Grupos para compartilhar Dashboards com múltiplos usuários
Convidando usuários com permissões de dados pré-aplicadas
Desabilitar ou excluir usuários
Definir formato de número predefinido para sua conta de usuário
GoodSuccess – análise de utilização do GoodData
Expandir sua plataforma GoodData
Visão geral da Plataforma GoodData
Dicas de desempenho
Desempenho de Data Warehouse
Evitando atualizações desnecessárias
Check for Invalid Views
Não padronize seu esquema em excesso
Dicas de design de projeção geral
Minimização de combinações de rede
Escolha de critérios de classificação de projeção
Manter a projeção predefinida nas consultas
Tire vantagem das partições de tabela
Uso de tabelas de monitoramento
Uso da codificação de duração da execução (RLE)
Uso da palavra-chave EXPLAIN
Gravação de atualizações de dados volumosas diretamente no disco
Relatar um problema de desempenho
Limites da plataforma
Seu domínio GoodData
Datacenters do GoodData
Backups de dados
Realizando auditoria de eventos da plataforma
Tipos de token do GoodData
Expiração de sessão de SST
Integração do GoodData ao seu aplicativo
Personalizando seu domínio
Configurar cabeçalhos e rodapés personalizados para a exportação de relatório PDF
Configure o DHMI para e-mails enviados
Domínios padrão e personalizado
Modelos de e-mail
Perguntas frequentes sobre personalização corporativa
Personalização corporativa de um novo domínio
Personalização corporativa de um domínio existente
Configurar um CNAME e adquirir um certificado TLS
Escolher um administrador de domínio
Coordenação de implementação
Personalização corporativa do domínio
Incorporação de elementos do GoodData aos seus aplicativos
O recurso Disponibilidade no modo incorporado e não-incorporado
Incorporação do Analytical Designer
Comunicação com o Analytical Designer incorporado
Incorporação de um dashboard KPI
Comunicação com Dashboards de KPI incorporados
Formatos de dados incorporados
Alinhamento de sessões entre seu aplicativo e o GoodData
Configurando eventos para detalhamento no Analytical Designer incorporado e em dashboards de KPI
Capturar o Salvar um evento de insight do Analytical Designer incorporado
HTML de exemplo para evento de detalhamento
Configurar autenticação de usuário e SSO
Visão geral da autenticação única
SSO SAML com o GoodData
Configurando a autenticação única Fluig
Configuração a autenticação única Okta
Configurando a autenticação única do Auth0
Configurar provedor de identidade com o Salesforce
Configurando Windows Server com AD FS para SSO SAML do GoodData
Usar provisionamento de usuário Just-in-time do SAML em um ambiente de SSO do SAML
Usar o provisionamento de usuário do System for Cross-domain Identity Management em um ambiente de SSO SAML
Autenticação única PGP do GoodData
Como gerar um par de chaves pública-privada
Localização de metadados
Referência de API
Versão e log de alterações da API
SDK do GoodData
Cliente HTTP Java do GoodData
Segurança e conformidade da plataforma
Blindagem de segurança
Enterprise Shield
Complemento HIPAA
Complemento GDPR-S
Protocolos de segurança TLS e criptografias compatíveis
Recurso de substituição de identidade
Política de senhas
Firewall
Glossário do GoodData
Recursos extras
Recursos descontinuados
Recurso da API de credenciais do Amazon S3
Upload de dados do recurso API
Endereços IP usados para carregamento de dados
Exploradores interativos
Versões 2.32.0 e anteriores do SDK do Java
Versões 3.0.2 a 3.1.2 do driver JDBC
Método antigo de SSO do Salesforce
Método PGP SSO GET
Chave pública de SSO PGP
Modelos de Projeto
SFTP para carregar dados para a plataforma GoodData
Assinatura SHA-1 para SAML
Suporte para TLS versão 1.0 e 1.1
visualização de tipo de objeto nos metadados do projeto
Downloads
Resolução de problemas
Problemas com o Data Warehouse (ADS)
Problemas de agendamento
Problemas de incorporação
Notas de lançamento
You are viewing our older product's guide. Click
here
for the documentation of GoodData Cloud, our latest and most advanced product.
Release Notes
GoodData Glossary