Learn
Learn
University
Community
Documentation
Support
Go to GoodData.com
Slack
All Products
Release Notes
Enterprise
Enterprise
Growth
Free
English
English
French
German
Japanese (Japan)
Portuguese (Brazil)
Spanish
All Products
Release Notes
Overview
Home
Finden Sie Unterlagen zu Ihrem GoodData-Abonnement
GoodData Abonnement Add-Ons
Erste Schritte mit GoodData
Systemanforderungen und unterstützte Browser
Learn the Platform Essentials
GoodData-Portal
Essential Terms and Concepts
Work with Workspaces
GoodData Demo Workspace
Create Workspaces
Load Data
Import CSV Files into a GoodData Workspace
Integrate a Data Source into a GoodData Workspace
Integrate a Data Source for a Data Warehouse
Import Sample Data to Your Data Source
Integrate a Data Source for an Object File Storage
Create a Relationship between Datasets
Publish your Logical Data Model
Load Data from a Data Source to a GoodData Workspace
Create Metrics
Create and Save a Metric
Add Insights and Dashboards
Create an Insight
Explore and Edit Insights on Dashboards
Build Dashboards
Share GoodData
Add and Manage Users in a Workspace
Embedding Analytical Designer
Embedding Dashboards
Dashboards und Betrachtungen
Analytical Designer
Visualisieren Ihrer Daten
Betrachtungen erstellen
Betrachtungstypen
Balkendiagramme
Blasendiagramme
Bullet-Diagramme
Säulendiagramme
Kombo-Diagramme
Ringdiagramme
Geo-Diagramme (Markierungspins)
Daten für Geo-Diagramme (Markierungspins) konfigurieren
Titelzeilen
Heatmaps
Liniendiagramme
Kreisdiagramme
Punktdiagramme
Gestapeltes Flächendiagramm
Tabellen
Baumkarte
Filter im Analytischen Designer
Betrachtungen nach Werten filtern
Rangfilter
Metriken nach Datum filtern
Wochen im Datumsfilter aktivieren
Daten in Betrachtungen sortieren
Betrachtungseigenschaften konfigurieren
Mit Metriken arbeiten
Datenkatalog im Analytischen Designer
Metriken umbenennen
Nummern formatieren
Vergleichende Berichte über Zeiträume
Metriken in Betrachtungen erstellen
Metriken stapeln
Betrachtungen exportieren und einbetten
Betrachtungen exportieren
Betrachtungen einbetten
Häufig gestellte Fragen zu Analytical Designer
Dashboards
Dashboards erstellen
Elemente in Dashboards bearbeiten
Dashboards teilen
Dashboards umbenennen
Dashboards duplizieren
Dashboards löschen
Hinzufügen einer Warnmeldung zu einem KPI
Automatische E-Mails von Dashboards einrichten
Filter in Dashboards
Datumsfilter in Dashboards
Passen Sie Datenfilter in Dashboards an
Datenfilterung in Dashboards
Betrachtungen von Dashboards filtern
Zu einem anderen Dashboard vordringen
Von Dashboards zu URL drillen
Drill-Down in Dashboards
Dashboard exportieren
Dashboards einbetten
Dashboard FAQs - häufig gestellte Fragen
Benutzerdefinierte Designs erstellen
Designeigenschaften
Designbeispiele
Designverwaltung mit Lebenszyklusverwaltung
Benutzerdefinierte Farbpaletten importieren
MAQL - Analytische Abfragesprache
MAQL und Multidimensionalität
MAQL vs. SQL
Erste Schritte beim Schrieben von Metriken mit MAQL
MAQL-Ausdrucksreferenz
Aggregationsfunktionen
SUM
AVG
MAX
MIN
MEDIAN
COUNT
GREATEST
LEAST
Statistische Funktionen
Varianzfunktionen
Standardabweichungsfunktionen
Kovarianzfunktionen
CORREL
Kleinste Quadratfunktionen
Numerische Funktionen
Arithmetische Operationen
ABS
SIGN
SQRT
LOG
LN
EXP
POWER
Rundungs- und Kürzungsfunktionen
ROUND
FLOOR
CEILING
TRUNC
Rank (Rangfolge)
Rangvariationen
WITHIN-Klausel
WHERE TOP oder BOTTOM(n) IN
WHERE TOP or BOTTOM(n) OF
Using Ranking Filters
PERCENTILE
Granularitätsschlüsselwörter
Betrachtungsattribute mit BY-Schlüsselwort überschreiben
BY
BY ALL
BY Attribute ALL IN ALL OTHER DIMENSIONS
BY ALL IN ALL OTHER DIMENSIONS
Das Attribut BY ALL IN ALL OTHER DIMENSIONS EXCEPT FOR
Zeittransformationen
Funktionen für die Bezugnahme auf Zeiträume in der Vergangenheit
FOR Previous
FOR PreviousPeriod
Funktionen zum Verweisen auf zukünftige Zeiträume
FOR Next
FOR NextPeriod
FORECAST - Hinzufügen einer Trendlinie zu einem Bericht
Funktionen für laufende Summen
Gleitfenster
Laufende Summen für Kernfunktionen
Statistische Funktionen für laufende Summen
Filterausdrücke
Filtern mit der Klausel WHERE
Operatoren zum Definieren von Filtern
Gleich-Operator
Ungleich-Operator
Andere relationale Operatoren
IN
NOT IN
BETWEEN
NOT BETWEEN
Bezugnahme auf gleitende Zeiträume
Das Makro THIS
Das Makro PREVIOUS
Das Makro NEXT
Hinzufügen gefilterter Variablen zu Metrikdefinitionen
Filtern mit der Klausel HAVING
Übergeordnete Filter überschreiben
ÜBERGEORDNETE Filter
Filtern mit der Klausel LIKE
Logische Funktionen
IF THEN ELSE
CASE
IFNULL
Logische Ausdrücke zum Verknüpfen von Filtern
NOT
OR
AND
XAE - Extensible Analytics Engine
Extensible Analytics Engine (XAE) - Häufig gestellte Fragen
Filter in der GoodData-Plattform
Daten und Uhrzeiten
Datumsattributshierarchien
Datumsattributsreferenz
Datumsformat ändern
Benutzerdefinierte Datumsdimensionen verwalten
Formatierung von Zahlen in Betrachtungen
Bedingte Zahlenformatierung
Farbformatierungsreferenz
Datenintegration
Datenmodellierung bei GoodData
Logische Datenmodellkomponenten bei GoodData
Datensätze in logischen Datenmodellen
Fakten in logischen Datenmodellen
Attribute in logischen Datenmodellen
Daten in logischen Datenmodellen
Verbindungspunkte in logischen Datenmodellen
Zuordnung zwischen einem logischen Datenmodell und der Datenquelle
Logisches Datenmodell manuell erstellen
Logisches Datenmodell aus einer CSV-Datei erstellen
Erstellen Sie ein logisches Datenmodell aus Ihrem Cloud Data Warehouse
Erstellen Sie ein logisches Datenmodell aus Ihrem Cloud Object Storage Service
Erstellen Sie ein logisches Datenmodell aus der Endstufe
Ein logisches Datenmodell aktualisieren
Ein logisches Datenmodell veröffentlichen
Importieren und exportieren Sie ein logisches Datenmodell
Hinzufügen von benutzerdefinierten Feldern zu den LDMs in Client-Workspaces innerhalb desselben Segments
Using a Custom Time Dimension in a Logical Data Model
Erstellen Sie die Endstufe basierend auf Ihrem logischen Datenmodell
Many-to-Many in logischen Datenmodellen
Performance des "Many-to-Many"-Modells
Datenmodellierung und MAQL
MAQL DDL
Change the Length of Attribute Labels
Bei zu vielen Datumsdimensionen Ereignisse ausprobieren
Vorbereitung und Distribution von Daten
Direkte Datenverteilung aus Data Warehouses und Object Storage Services
Details zur Integration von GoodData-Azure Blob Storage
Details zur Integration von GoodData-Azure SQL Database
Details zur Integration von GoodData-Azure Synapse Analytics
GoodData-BigQuery Integrationsdetails
Details zur Integration von GoodData-Microsoft SQL Server
Integrationsdetails zu GoodData-MongoDB BI Connector
GoodData-PostgreSQL Integrationsdetails
Details zur GoodData-Redshift Integration
Details zur Integration von GoodData-S3
Details zur GoodData-Snowflake Integration
Integrieren Sie Datenbanken direkt in GoodData, basierend auf einem bestehenden LDM
Integrieren Sie Daten aus Ihrem Amazon S3 Bucket direkt in GoodData
Automatisierte Datenverteilung v2 für Data Warehouses
Modi in automatisierter Datenverteilung v2 für Data Warehouses laden
Automatisierte Datenverteilung v2 für Data Warehouses einrichten
Namenskonvention für Objekte der Endstufe in automatisierter Datenverteilung v2 für Data Warehouses
Erstellen Sie die Endstufe basierend auf Ihrem Data Warehouse-Schema
Zeitzonen in automatisierter Datenverteilung v2 für Data Warehouses
Automatisierte Datenverteilung v2 für Object Storage Services
Modi in automatisierter Datenverteilung v2 für Object Storage Services laden
Automatisierte Datenverteilung v2 für Object Storage Services
Namenskonvention für Objekte der Endstufe in automatisierter Datenverteilung v2 für Object Storage Services
Datenaufbereitung und Verteilungs-Pipeline
Bevor Sie mit der Datenaufbereitung und Verteilungs-Pipeline beginnen
Phasen beim Bau einer Daten-Pipeline
Bau einer Daten-Pipeline
Daten-Pipeline exportieren und importieren
Daten-Pipeline-Referenz
Brick-Referenz
Brick konfigurieren
Downloader
CSV-Downloader
Eingabedaten für CSV-Downloader
Manifest-Datei
Feed-Datei
Google Analytics-Downloader
Herunterladen von Google Tabellen
Salesforce-Downloader
SQL-Downloader
Integratoren
ADS-Integrator
Kalkulationsfelder
Exekutoren
SQL-Exekutoren
Tools
Schedule Execution Brick
Tool zur Objektumbenennung
Erstellen von benutzerdefinierten Feldern
Laden von Datumsdimensionen
Referenz für Datenlager
Data Warehouse
Kurzanleitung für Data Warehouse
Datenstrom von Data Warehouse und der GoodData-Plattform
Bestimmungszweck von Data Warehouse
Data Warehouse und Vertica
Data Warehouse-Architektur
Data Warehouse-Technologie
Logisches und physisches Modell in Data Warehouse
Datenbank-Schemadesign
Logisches Schemadesign - Tabellen und Ansichten
Primär- und Fremdschlüssel
Änderung des logischen Schemas
Physisches Schemadesign - Projektierungen
Spaltenkodierung und Komprimierung
Spaltensortierreihenfolge
Segmentierung
Konfiguration der ersten Superprojektierung mit dem Befehl CREATE TABLE
Erstellen einer neuen Projektierung mit dem Befehl CREATE PROJECTION
Änderung des physischen Schemas
Spaltenspeicherung und Komprimierung in Data Warehouse
Anschlüsse zum Verbinden mit GoodData
Abfrage des Data Warehouse
Einschränkungen und Differenzen in Differenz von anderen RDBMS
Einzelnes Schema pro Data Warehouse-Instanz
Kein Vertica-Administratorzugang
COPY FROM LOCAL für das Laden von Daten verwenden
COPY FROM S3 zum Laden von Daten verwenden
Nicht unterstützte Funktionen
Eingeschränkter Zugriff auf Systemtabellen
Eingeschränkter Zugriff auf räumliche Funktionen
Flexible Tabellengrenzen
Datenbank-Designer Tool nicht verfügbar
Einschränkung des JDBC-Treibers
Ressourceneinschränkungen
Andere Einschränkungen
Data Warehouse Best Practices
Zum Verständnis von Vertica-Fehlercodes
Data Warehouse-API-Verweis
Arbeiten mit Data Warehouse-Instanzen
Erstellen einer Data Warehouse-Instanz
Details-Seite für Data Warehouse-Instanz
Überprüfen Ihrer Data Warehouse-Instanzen
Deprovisionierung Ihrer Data Warehouse-Instanz
Verwaltung von Benutzern und Zugangsrechten
Data Warehouse-Benutzerrollen
Abrufen einer Liste mit Data Warehouse-Benutzern
Hinzufügen eines Benutzers in Data Warehouse
Ändern einer Benutzerrolle in der Data Warehouse-Instanz
Überprüfen von Details zu Data Warehouse-Benutzern
Entfernen eines Benutzers von Data Warehouse
ADS Exporter
Einrichten einer Verbindung zu Data Warehouse
Verbindung mit Data Warehouse mit den SQL-Client-Tools
JDBC-Treiber herunterladen
Treiberversion für Data Warehouse
Anmelden für den JDBC-Treiber
Erstellung der JDBC-Verbindungszeichenfolge
Zugang zu Data Warehouse mit SQuirrel SQL
Verbindung mit Data Warehouse mit Java
Verbindung mit Data Warehouse über JRuby
Installieren von Ruby
Zugriff auf Data Warehouse über die Sequel-Bibliothek
Instalation der Datenbankanbindung zu Ruby
Installation der Data Warehouse-Unterstützung für JRuby
Beispiel für Ruby-Code für Data Warehouse
Referenz für automatisierte Datendistribution
Automatisierte Datenverteilung (Automated Data Distribution)
Arbeiten mit der automatisierten Datenverteilung (Automated Data Distribution)
Löschen von Daten aus Datensätzen in der Automatisierten Datenverteilung (Automated Data Distribution)
Namenskonvention für Ausgabestufenobjekte
Zeitzonen in der Automatisierten Datenverteilung (Automated Data Distribution)
Datenladevorgänge einrichten
Referenz für Datenintegrationskonsole
Zugriff auf die Datenintegrationskonsole
Übersichtsbildschirm der Datenintegrationskonsole
Projektbildschirm der Datenintegrationskonsole
Datenquelle erstellen
Teilen Sie eine Datenquelle mit anderen Nutzern
Datenquelle löschen
Einen Datenladevorgang auf die automatisierte Datenverteilung v2 anwenden
Prozess für Datenpipeline-Brick anwenden
Prozess für einen Lebenszyklusverwaltungs-Brick (LCM) anwenden
Eine Datenladung planen
Datenladeprozess für eine Gruppe von Workspaces planen
Eine geplante Datenladung bearbeiten
Explore Advanced Options of a Scheduled Data Load
Planungsparameter konfigurieren
Planungssequenzen konfigurieren
Datenladung ausschließlich zur manuellen Ausführung laden
Einen geplanten Datenladevorgang terminieren
Automatisches Wiederholen eines fehlgeschlagenen Datenladevorgangs konfigurieren
Einen geplanten Datenladevorgang auf Abruf ausführen
Einen geplanten Datenladevorgang deaktivieren
Ausführungsprotokoll einer Datenladung prüfen
Eine Benachrichtigungsregel für einen Datenladevorgang erstellen
Eine Benachrichtigungsregel aus einem Datenladevorgang löschen
Verwenden Sie Parameter in mehreren Datenladeprozessen
Eine geplante Datenladung löschen
CSV-Dateien in Ihren Workspace laden
CSV Dateianforderungen
Laden Sie CSV-Dateien mit dem LDM Modeler in einen Workspace
Daten in einem Datensatz aus einer CSV-Datei aktualisieren
Referenz für weitere Daten laden
IP Whitelisting
Laden von Daten über REST API
Beim Laden neuer Daten in einen Datensatz über API alte Daten löschen
Transformieren von Daten für Batch-Prognosen und Empfehlungen
Datenaufbereitungs- und Datenauswertungsfunktionen
Workspace-spezifische Datenspeicherung
Benutzerspezifische Datenspeicherung
Blueprints
Daten-Pipeline-Blueprints
ELT-Blueprint
ELT-Blueprint - Häufig gestellte Fragen
Löschen von Einträgen aus Datensätzen
Workspace und Benutzerverwaltung
Projekte und Projektobjekte verwalten
Workspace-ID finden
Workspace-Autorisierungstoken finden
Finden Sie heraus, auf welcher Datenbank-Engine ein Workspace läuft
Suchen des Projekt-Namens
Projekt umbenennen
Projekt klonen
Workspace validieren
Workspace erstellen
Workspace wechseln
Workspace verlassen
Workspace löschen
Festlegen der Zeitzone für Ihren Workspace
Daten aus einem Workspace löschen
Zugriff auf die grauen Seiten für einen Workspace
Migrieren ausgewählter Objekte zwischen Workspaces
Erfassen von Objekt-Identifiern für Projektmetadaten
Verschiedene Merkmale über Plattformeinstellungen konfigurieren
GoodData-Erweiterungstool für Chrome
Multi-Tenancy auf der GoodData-Plattform
Workspaces über Lebenszyklusverwaltung verwalten
LCM-Implementierung
Konfigurieren der LCM über API
Bausteine
Release-Brick
Rollout-Brick
Versorgungsbrick
Benutzerbaustein
Benutzerfilterbaustein
Arbeiten mit einem Baustein
Angeben komplexer Parameter
Arten von Eingabedatenquellen
Workspace-Daten und Datenzugriff verwalten
Verwalten von Datensätzen
Hinzufügen eines Tags zu einem Datensatz
Verwalten von Attributen
Hinzufügen eines Tags zu einem Attribut
Entdecken Sie Attributsbezeichnungen und Drill-Pfade
Suchen, wo ein Attribut verwendet wird
Festlegen der Attributswert-ID
Berechnete Attribute
Verwalten von Fakten
Hinzufügen eines Tags zu einem Fakt
Verwalten von Metriken
Hinzufügen eines Tags zu einer Metrik
Verwalten von Variablen
Workspace-Modell anzeigen
Verwendung von Tags
Erste Schritte mit Datenberechtigungen
Anwendungsfälle erweiterter Datenberechtigungen
Erstellen Sie Datengenehmigungen für rollierende Zeiträume
Berechtigung, Projektmetriken, Berichte und Dashboards zu bearbeiten
Mit Variablen die Datensichtbarkeit steuern
Numerische im Vergleich zu gefilterten Variablen
Numerische Variablen definieren
Einbinden von numerischen Variablen in Workspaces
Define Filtered Variables
Incorporating Filtered Variables at the Metric Level
Aktualisieren von Variablen mit REST API
Nutzer in Workspaces verwalten
Zuordnen von Benutzern zu Domänen und Projekten
Benutzerrollen
Benutzerrollen-Berechtigungen
Benutzerdefinierte Benutzerrolle erstellen
Benutzerversorgung in Projekten mit dem Benutzerbaustein
Profile von Workspace-Mitgliedern verwalten
Benutzer-ID suchen
Aktualisieren einer Benutzer-E-Mail-Adresse
Teilen von Dashboards mit mehreren Benutzern mittels Gruppen
Einladen von Benutzern mit vordefinierten Datenberechtigungen
Deaktivieren/Löschen von Benutzern
Standardzahlenformat für Ihr Benutzerkonto einrichten
GoodSuccess - GoodData Nutzungsanalyse
Erweitern Sie Ihre GoodData-Plattform
GoodData-Plattform - Übersicht
Tipps zur Leistungssteigerung
Data Warehouse-Leistung
Vermeiden Sie unnötige UPDATEs
Check for Invalid Views
Übernormalisieren Sie Ihr Schema nicht
Allgemeine Empfehlungen zur Entwicklung von Projektierungen
Netzwerk-Joins minimieren
Kriterien für die Projektierungssortierung auswählen
Behalten Sie die vorab definierte Projektion bei Abfragen
Tabellenabschnitte nutzen
Verwendung von Kontrolltabellen
Verwendung der Lauflängenkodierung (RLE)
Verwendung des Stichworts EXPLAIN
Schreiben großer Datenaktualisierungen direkt auf die Festplatte
Über ein Leistungsproblem berichten
Plattformgrenzen
Ihre GoodData-Domäne
GoodData-Datencenter
Datensicherung
Ereignisse der Audit-Plattform
Token-Arten bei GoodData
Ablauf der SST-Sitzung
Integration von GoodData in Ihre Anwendung
Domäne mit White Label versehen
Konfigurieren benutzerdefinierter Titelzeilen und Fußzeilen zum Exportieren von Berichten im PDF-Format
Konfigurieren von DKIM für ausgehende E-Mails
Standarddomänen und benutzerdefinierte Domänen
E-Mail-Vorlagen
Häufig gestellte Fragen zum White Labeling
White Labeling für eine neue Domäne
White Labeling für eine bestehende Domäne
Richten Sie ein CNAME ein und erwerben Sie ein TLS-Zertifikat
Domänenadministrator wählen
Rollout abstimmen
Konfiguration der White Labeling-Domäne
Einbetten von GoodData-Elementen in Ihre Anwendungen
Funktionsverfügbarkeit im eingebetteten und im nicht eingebetteten Modus
Analytical Designer einbetten
Kommunikation mit eingebettetem Analytical Designer
Einbetten eines KPI-Dashboards
Kommunikation mit eingebetteten KPI-Dashboards
Einbetten von Codeformaten
Angleichen von Sitzungen zwischen Ihrer Anwendung und GoodData
Einrichten von Ereignissen zum Verfeinern im eingebetteten Analytical Designer und in KPI-Dashboards
Direkt im eingebetten Analytical Designer gespeicherte Insight-Events von Benutzern aufzeichnen
Stichproben-HTML für Drill-Ereignisse
Benutzer-Authentifizierung und SSO einrichten
Single Sign-On - Übersicht
SAML SSO bei GoodData
Einrichten von Fluig Single Sign-On
Einrichten von Okta Single Sign-On
Einrichtung von Auth0 Single Sign-On
Identitäts-Provider mit Salesforce konfigurieren
Konfigurieren von Windows Server mit AD FS für GoodData SAML SSO
Verwenden Sie SAML Just-in-Time Nutzerversorgung in einer SAML SSO-Umgebung
System zur domänenübergreifenden Identitätsmanagement-Benutzerbereitstellung in einer SAML-SSO-Umgebung verwenden
PGP Single Sign-On bei GoodData
Generieren des Paares Public Key-Privater Schlüssel
Metadatenlokalisierung
API-Referenz
API Version Information und Changelog
GoodData-SDK
GoodData Java HTTP Client
Plattform-Sicherheit und Compliance
Security Shield
Enterprise Shield
HIPAA Add-On
GDPR Add-On
Unterstützte TLS Sicherheitsprotokolle und Ziffern
Identitätswechselfunktion
Kennwortrichtlinie
Firewall
GoodData Glossar
Zusätzliche Ressourcen
Veraltete Funktionen!
Amazon S3 Credentials API Resource
Hochladen von Daten mit der API-Ressource
IP-Adressen zum Laden von Daten
Interaktive Explorer
Java SDK Versionen 2.32.0 und älter
JDBC Driver Version 3.0.2 bis 3.1.2
Herkömmliche Salesforce SSO-Methode
PGP SSO GET Methode
Öffentlicher PGP-SSO-Schlüssel
Projektvorlagen
SFTP zum Laden von Daten auf die GoodData-Plattform
SHA-1 Signatur für SAML
Unterstützung für TLS Version 1.0 und 1.1
Visualisierungsobjekttyp in Projektmetadaten
Downloads
Fehlersuche
Data Warehouse (ADS) - Probleme
Fehlersuche bei fehlgeschlagenen Plänen
Fehlersuche beim Einbetten
Versionshinweise
Home
Find Documentation for Your GoodData Plan
GoodData Pricing Plans' Add-ons
GoodData Classic
How to Get Started with GoodData
System Requirements and Supported Browsers
Learn the Platform Essentials
GoodData Portal
Essential Terms and Concepts
Work with Workspaces
GoodData Demo Workspace
Create Workspaces
Load Data
Import CSV Files into a GoodData Workspace
Integrate a Data Source into a GoodData Workspace
Integrate a Data Source for a Data Warehouse
Import Sample Data to Your Data Source
Integrate a Data Source for an Object File Storage
Create a Relationship between Datasets
Publish your Logical Data Model
Load Data from a Data Source to a GoodData Workspace
Create Metrics
Create and Save a Metric
Add Insights and Dashboards
Create an Insight
Explore and Edit Insights on Dashboards
Build Dashboards
Share GoodData
Add and Manage Users in a Workspace
Embedding Analytical Designer
Embedding Dashboards
Dashboards and Insights
Analytical Designer
Visualize Your Data
Create Insights
Insight Types
Dependency Wheel Charts
Funnel Charts
Pyramid Charts
Sankey Diagrams
Waterfall Chart
Bar Charts
Bubble Charts
Bullet Charts
Column Charts
Combo Charts
Donut Charts
Geo Charts (pushpins)
Configure Data for Geo Charts (pushpins)
Headlines
Heatmaps
Line Charts
Pie Charts
Tables
Scatter Plots
Stacked Area Charts
Treemaps
Filters in Analytical Designer
Filter Insights by Values
Ranking Filter
Filter Metrics by Date
Enable Weeks in Date Filters
Sort Data in Insights
Configure Insight Properties
Work With Metrics
Data Catalog in Analytical Designer
Rename Metrics
Format Numbers
Time over Time Comparison
Create Metrics in Insights
Stack Metrics
Export and Embed Insights
Export Insights
Embed Insights
Analytical Designer - Frequently Asked Questions
Dashboards
Create Dashboards
Edit Items on Dashboards
Share Dashboards
Rename Dashboards
Duplicate Dashboards
Delete Dashboards
Add an Alert to a KPI
Schedule Automatic Emailing of Dashboards
Filters in Dashboards
Date Filters in Dashboards
Customize Date Filters in Dashboards
Drilling in Dashboards
Drill to Insights from Dashboards
Drill to Another Dashboard
Drill to URL from Dashboards
Drill Down in Dashboards
Export Dashboards
Embed Dashboards
Dashboards FAQ - Frequently Asked Questions
Create Custom Themes
Theme Properties
Theme Examples
Manage Themes with Life Cycle Management
Importing Custom Color Palettes
MAQL - Analytical Query Language
MAQL Use Cases and Tutorials
Explicit Lifting
Date Attribute Arithmetic
Finding Min and Max Dates Using Date Arithmetic
MAQL and Multidimensionality
MAQL versus SQL
Get Started with Using MAQL to Write Metrics
MAQL Expression Reference
Aggregation Functions
SUM
AVG
MAX
MIN
MEDIAN
COUNT
GREATEST
LEAST
Statistical Functions
Variance Functions
Standard Deviation Functions
Covariance Functions
CORREL
Least-Squares Functions
Numeric Functions
Arithmetic Operations
ABS
SIGN
SQRT
LOG
LN
EXP
POWER
Rounding and Truncation Functions
ROUND
FLOOR
CEILING
TRUNC
Rank
Rank Variations
WITHIN Clause
WHERE TOP or BOTTOM(n) IN
WHERE TOP or BOTTOM(n) OF
Using Ranking Filters
PERCENTILE
Granularity Keywords
Overriding Insight Attributes with BY Keyword
BY
BY ALL
BY attribute ALL IN ALL OTHER DIMENSIONS
BY ALL IN ALL OTHER DIMENSIONS
BY ALL IN ALL OTHER DIMENSIONS EXCEPT FOR attribute
Time Transformations
Functions For Referring to Past Time Periods
FOR Previous
FOR PreviousPeriod
Functions for Referring to Future Time Periods
FOR Next
FOR NextPeriod
FORECAST - Adding a Trend Line
Running Total Functions
Rolling Window
Running Totals for Core Functions
Running Total Statistical Functions
Filter Expressions
Filtering with the WHERE Clause
Operators for Defining Filters
Equals Operator
Does Not Equal Operator
Other Relational Operators
IN
NOT IN
BETWEEN
NOT BETWEEN
Referencing Floating Time Periods
THIS Macro
PREVIOUS Macro
NEXT Macro
Adding Filtered Variables to Metric Definitions
Filtering with the HAVING Clause
Overriding Parent Filters
PARENT Filters
Filtering with the LIKE Clause
Logical Functions
IF THEN ELSE
CASE
IFNULL
Logical Expressions for Combining Filters
NOT
OR
AND
XAE - Extensible Analytics Engine
Extensible Analytics Engine (XAE) - FAQ
Filters in the GoodData Platform
Dates and Times
Date Attribute Hierarchies
Date Attribute Reference
Change Date Format
Manage Custom Date Dimensions
Formatting Numbers in Insights
Conditional Number Formatting
Color Formatting Reference
Data Integration
Data Modeling in GoodData
Logical Data Model Components in GoodData
Datasets in Logical Data Models
Facts in Logical Data Models
Attributes in Logical Data Models
Dates in Logical Data Models
Connection Points in Logical Data Models
Mapping between a Logical Data Model and the Data Source
Create a Logical Data Model Manually
Create a Logical Data Model from CSV Files
Create a Logical Data Model from Your Cloud Data Warehouse
Create a Logical Data Model from Your Cloud Object Storage Service
Create a Logical Data Model from the Output Stage
Update a Logical Data Model
Publish a Logical Data Model
Import and Export a Logical Data Model
Add Custom Fields to the LDMs in Client Workspaces within the Same Segment
Using a Custom Time Dimension in a Logical Data Model
Create the Output Stage based on Your Logical Data Model
Many-to-Many in Logical Data Models
Many-to-Many Modeling Performance
Data Modeling and MAQL
MAQL DDL
Change the Length of Attribute Labels
If Too Many Date Dimensions, Try Events
Data Preparation and Distribution
Direct Data Distribution from Data Warehouses and Object Storage Services
GoodData-Azure Blob Storage Integration Details
GoodData-Azure SQL Database Integration Details
GoodData-Azure Synapse Analytics Integration Details
GoodData-BigQuery Integration Details
GoodData-Microsoft SQL Server Integration Details
GoodData-MongoDB BI Connector Integration Details
GoodData-MySQL Integration Details
GoodData-PostgreSQL Integration Details
GoodData-Redshift Integration Details
GoodData-S3 Integration Details
GoodData-Snowflake Integration Details
Integrate Data Warehouses Directly to GoodData based on an Existing LDM
Integrate Data from Your Amazon S3 Bucket Directly to GoodData
Automated Data Distribution v2 for Data Warehouses
Load Modes in Automated Data Distribution v2 for Data Warehouses
Set Up Automated Data Distribution v2 for Data Warehouses
Naming Convention for Output Stage Objects in Automated Data Distribution v2 for Data Warehouses
Create the Output Stage based on Your Data Warehouse Schema
Time Zones in Automated Data Distribution v2 for Data Warehouses
Automated Data Distribution v2 for Object Storage Services
Load Modes in Automated Data Distribution v2 for Object Storage Services
Set Up Automated Data Distribution v2 for Object Storage Services
Naming Convention for Source Files in Automated Data Distribution v2 for Object Storage Services
Data Preparation and Distribution Pipeline
Before You Start with Data Preparation and Distribution Pipeline
Phases of Building the Data Pipeline
Build Your Data Pipeline
Export and Import the Data Pipeline
Data Pipeline Reference
Brick Reference
Configure a Brick
Downloaders
CSV Downloader
Input Data for CSV Downloader
Manifest File
Feed File
Google Analytics Downloader
Google Sheets Downloader
Salesforce Downloader
SQL Downloader
Integrators
ADS Integrator
Computed Fields
Executors
SQL Executor
Utilities
Schedule Executor
Object Renaming Utility
Custom Field Creator
Date Dimension Loader
Data Warehouse Reference
Data Warehouse
Data Warehouse Quick Start
Data Warehouse and the GoodData Platform Data Flow
Intended Usage for Data Warehouse
Data Warehouse and Vertica
Data Warehouse Architecture
Data Warehouse Technology
Data Warehouse Logical and Physical Model
Database Schema Design
Logical Schema Design - Tables and Views
Primary and Foreign Keys
Altering Logical Schema
Physical Schema Design - Projections
Columns Encoding and Compression
Columns Sort Order
Segmentation
Configuring the Initial Superprojection with CREATE TABLE Command
Creating a New Projection with CREATE PROJECTION Command
Changing Physical Schema
Column Storage and Compression in Data Warehouse
Ports Used to Connect to GoodData
Querying Data Warehouse
Limitations and Differences in Data Warehouse from Other RDBMS
Single Schema per Data Warehouse Instance
No Vertica Admin Access
Use COPY FROM LOCAL to Load Data
Use COPY FROM S3 to Load Data
Not Supported Functions
Limited Access to System Tables
Limited Access to Spatial Functions
Flex Table Limits
Database Designer Tool not Available
JDBC Driver Limitations
Resource Limitations
Other Limitations
Data Warehouse Best Practices
Understanding Vertica Error Codes
Data Warehouse API Reference
How to Work with Data Warehouse Instances
Creating a Data Warehouse Instance
Data Warehouse Instance Details Page
Reviewing Your Data Warehouse Instances
Deprovision Your Data Warehouse Instance
Managing Users and Access Rights
Data Warehouse User Roles
Getting a List of Data Warehouse Users
Adding a User in Data Warehouse
Changing a User Role in the Data Warehouse Instance
Reviewing Data Warehouse User Details
Removing a User from Data Warehouse
Exporting Data from Data Warehouse
How to Set Up a Connection to Data Warehouse
Connecting to Data Warehouse from SQL Client Tools
Download the JDBC Driver
Data Warehouse Driver Version
Enable Logging for the JDBC Driver
Prepare the JDBC Connection String
Access Data Warehouse from SQuirrel SQL
Connecting to Data Warehouse from Java
Connecting to Data Warehouse from JRuby
Install JRuby
Access Data Warehouse Using the Sequel library
Installing Database Connectivity to Ruby
Installing the Data Warehouse JRuby support
Example Ruby code for Data Warehouse
Automated Data Distribution Reference
Automated Data Distribution
Use Automated Data Distribution
Delete Data from Datasets in Automated Data Distribution
Naming Convention for Output Stage Objects
Time Zones in Automated Data Distribution
Setting Up Data Loading Processes
Data Integration Console Reference
Accessing Data Integration Console
Data Integration Console Overview Screen
Data Integration Console Workspace Screen
Create a Data Source
Share a Data Source with Other Users
Delete a Data Source
Deploy a Data Loading Process for Automated Data Distribution v2
Deploy a Data Loading Process for a Data Pipeline Brick
Deploy a Data Loading Process for a Life Cycle Management (LCM) Brick
Schedule a Data Load
Schedule a Data Loading Process for a Group of Workspaces
Edit a Scheduled Data Load
Explore Advanced Options of a Scheduled Data Load
Configure Schedule Parameters
Configure Schedule Sequences
Schedule a Data Load for Manual Execution Only
Time a Scheduled Data Loading Process
Configure Automatic Retry of a Failed Data Loading Process
Run a Scheduled Data Loading Process on Demand
Disable a Scheduled Data Loading Process
Review a Log of Data Load Execution
Create a Notification Rule for a Data Loading Process
Delete a Notification Rule from a Data Loading Process
Reuse Parameters in Multiple Data Loading Processes
Delete a Scheduled Data Load
Load CSV Files to Your Workspace
CSV File Requirements
Load CSV Files to a Workspace with the LDM Modeler
Update Data in a Dataset from a CSV File
Additional Data Load Reference
GoodData IP Addresses and IP Whitelisting
Loading Data via REST API
Delete Old Data while Loading New Data to a Dataset via API
Transform Data for Batch Predictions and Recommendations
Data Preparation and Data Evaluation Functions
Workspace Specific Data Storage
User Specific Data Storage
Blueprints
Data Pipeline Blueprints
ELT Blueprint
ELT Blueprint FAQ
Deleting Records from Datasets
Workspace and User Administration
Administrating Workspaces and Workspace Objects
Find the Workspace ID
Find the Workspace Authorization Token
Find out what Database Engine a Workspace Runs on
Find the Workspace Name
Rename a Workspace
Clone a Workspace
Validate a Workspace
Create a Workspace
Switch Between Workspaces
Leave a Workspace
Delete a Workspace
Set a Custom Time Zone for Your Workspace
Deleting Data from a Workspace
Access the Gray Pages for a Workspace
Migrate Selected Objects between Workspaces
Acquiring Object Identifiers for Workspace Metadata
Configure Various Features via Platform Settings
GoodData Extension Tool for Chrome
Multitenancy on the GoodData Platform
Managing Workspaces via Life Cycle Management
LCM Implementation
Configuring LCM via API
Bricks
Release Brick
Rollout Brick
Provisioning Brick
Users Brick
User Filters Brick
How to Use a Brick
Specifying Complex Parameters
Types of Input Data Sources
Managing Workspace Data and Data Access
Manage Datasets
Add a Tag to a Dataset
Manage Attributes
Add a Tag to an Attribute
Discover Attribute Labels and Drill Paths
Find Where an Attribute Is Used
Determine the Attribute Value ID
Use Computed Attributes
Manage Facts
Add a Tag to a Fact
Manage Metrics
Add a Tag to a Metric
Manage Variables
View a Workspace Model
Using Tags
Data Permissions
Advanced Data Permissions Use Cases
Create Data Permissions for Rolling Time Periods
Permission to Edit Workspace Metrics
Using Variables to Control Data Visibility
Numerical vs Filtered Variables
Define Numerical Variables
Incorporating Numerical Variables into Workspaces
Define Filtered Variables
Incorporating Filtered Variables at the Metric Level
Updating the Variable Using REST API
Managing Users in Workspaces
Provisioning Users to Domains and Workspaces
User Roles
User Roles Permissions
Create a Custom User Role
Use the Users Brick to Provision Users in Your Workspaces
Managing Workspace Member Profiles
Find the User ID
Update a User Email
Use Groups to Share Dashboards with Multiple Users
Inviting Users with Pre-applied Data Permissions
Disable or Delete Users
Set Default Number Format for Your User Account
GoodSuccess - GoodData Usage Analytics
Expand Your GoodData Platform
GoodData Platform Overview
Performance Tips
Data Warehouse Performance
Avoid Unnecessary UPDATEs
Check for Invalid Views
Do Not Overnormalize Your Schema
General Projection Design Tips
Minimize Network Joins
Choose Projection Sorting Criteria
Keep the Predefined Projection in Queries
Take Advantage of Table Partitions
Use Monitoring Tables
Use Run Length Encoding (RLE)
Use the EXPLAIN Keyword
Write Large Data Updates Directly to Disk
Report a Performance Issue
Platform Limits
Your GoodData Domain
GoodData Datacenters
Data Backup
Auditing Platform Events
GoodData Token Types
SST Session Expiration
GoodData Integration into Your Application
White Label Your Domain
Configure Custom Headers and Footers for PDF Report Exports
Configure DKIM for Outgoing Email
Default and Custom Domains
Email Templates
Frequently Asked Questions about White Labeling
White-Label a New Domain
White-Label an Existing Domain
Set up a CNAME and Acquire a TLS Certificate
Choose a Domain Administrator
Coordinate Rollout
Customize the White-Labeled Domain
Embed GoodData Elements into Your Applications
Feature Availability in Embedded and Non-embedded Mode
Embed Analytical Designer
Communication with Embedded Analytical Designer
Embed a Dashboard
Communication with Embedded Dashboards
Embedding Code Formats
Aligning Sessions Between Your Application and GoodData
Setting up Events for Drilling in Embedded Analytical Designer and Dashboards
Capture the Save an Insight Event from Embedded Analytical Designer
Sample HTML for Drill Eventing
Set up User Authentication and SSO
Single Sign-On Overview
SAML SSO with GoodData
Setting up Fluig Single Sign-On
Setting up Okta Single Sign-On
Setting up Auth0 Single Sign-On
Configure Identity Provider with Salesforce
Configuring Windows Server with AD FS for GoodData SAML SSO
Use SAML Just-in-Time User Provisioning in a SAML SSO Environment
Use System for Cross-domain Identity Management User Provisioning in a SAML SSO Environment
GoodData PGP Single Sign-On
How to Generate a Public-Private Key Pair
Metadata Localization
API Reference
API Version Information and Changelog
GoodData SDK
GoodData Java HTTP Client
Platform Security and Compliance
Security Shield
Enterprise Shield