Learn
  • Enterprise
  • Growth
  • Free
  • English
  • French
  • German
  • Japanese (Japan)
  • Portuguese (Brazil)
  • Spanish
  • Overview
  • Home
    • Finden Sie Unterlagen zu Ihrem GoodData-Abonnement
      • GoodData Abonnement Add-Ons
    • Erste Schritte mit GoodData
      • Systemanforderungen und unterstützte Browser
      • Learn the Platform Essentials
        • GoodData-Portal
        • Essential Terms and Concepts
      • Work with Workspaces
        • GoodData Demo Workspace
        • Create Workspaces
      • Load Data
        • Import CSV Files into a GoodData Workspace
        • Integrate a Data Source into a GoodData Workspace
          • Integrate a Data Source for a Data Warehouse
            • Import Sample Data to Your Data Source
          • Integrate a Data Source for an Object File Storage
        • Create a Relationship between Datasets
        • Publish your Logical Data Model
        • Load Data from a Data Source to a GoodData Workspace
      • Create Metrics
        • Create and Save a Metric
      • Add Insights and Dashboards
        • Create an Insight
          • Explore and Edit Insights on Dashboards
        • Build Dashboards
      • Share GoodData
        • Add and Manage Users in a Workspace
        • Embedding Analytical Designer
        • Embedding Dashboards
    • Dashboards und Betrachtungen
      • Analytical Designer
        • Visualisieren Ihrer Daten
          • Betrachtungen erstellen
          • Betrachtungstypen
            • Balkendiagramme
            • Blasendiagramme
            • Bullet-Diagramme
            • Säulendiagramme
            • Kombo-Diagramme
            • Ringdiagramme
            • Geo-Diagramme (Markierungspins)
              • Daten für Geo-Diagramme (Markierungspins) konfigurieren
            • Titelzeilen
            • Heatmaps
            • Liniendiagramme
            • Kreisdiagramme
            • Punktdiagramme
            • Gestapeltes Flächendiagramm
            • Tabellen
            • Baumkarte
          • Filter im Analytischen Designer
            • Betrachtungen nach Werten filtern
            • Rangfilter
            • Metriken nach Datum filtern
            • Wochen im Datumsfilter aktivieren
          • Daten in Betrachtungen sortieren
          • Betrachtungseigenschaften konfigurieren
        • Mit Metriken arbeiten
          • Datenkatalog im Analytischen Designer
          • Metriken umbenennen
          • Nummern formatieren
          • Vergleichende Berichte über Zeiträume
          • Metriken in Betrachtungen erstellen
          • Metriken stapeln
        • Betrachtungen exportieren und einbetten
          • Betrachtungen exportieren
          • Betrachtungen einbetten
        • Häufig gestellte Fragen zu Analytical Designer
      • Dashboards
        • Dashboards erstellen
        • Elemente in Dashboards bearbeiten
        • Dashboards teilen
        • Dashboards umbenennen
        • Dashboards duplizieren
        • Dashboards löschen
        • Hinzufügen einer Warnmeldung zu einem KPI
        • Automatische E-Mails von Dashboards einrichten
        • Filter in Dashboards
          • Datumsfilter in Dashboards
          • Passen Sie Datenfilter in Dashboards an
        • Datenfilterung in Dashboards
          • Betrachtungen von Dashboards filtern
          • Zu einem anderen Dashboard vordringen
          • Von Dashboards zu URL drillen
          • Drill-Down in Dashboards
        • Dashboard exportieren
        • Dashboards einbetten
        • Dashboard FAQs - häufig gestellte Fragen
      • Benutzerdefinierte Designs erstellen
        • Designeigenschaften
        • Designbeispiele
        • Designverwaltung mit Lebenszyklusverwaltung
      • Benutzerdefinierte Farbpaletten importieren
      • MAQL - Analytische Abfragesprache
        • MAQL und Multidimensionalität
        • MAQL vs. SQL
        • Erste Schritte beim Schrieben von Metriken mit MAQL
        • MAQL-Ausdrucksreferenz
          • Aggregationsfunktionen
            • SUM
            • AVG
            • MAX
            • MIN
            • MEDIAN
            • COUNT
            • GREATEST
            • LEAST
            • Statistische Funktionen
              • Varianzfunktionen
              • Standardabweichungsfunktionen
              • Kovarianzfunktionen
              • CORREL
              • Kleinste Quadratfunktionen
          • Numerische Funktionen
            • Arithmetische Operationen
            • ABS
            • SIGN
            • SQRT
            • LOG
            • LN
            • EXP
            • POWER
            • Rundungs- und Kürzungsfunktionen
              • ROUND
              • FLOOR
              • CEILING
              • TRUNC
            • Rank (Rangfolge)
              • Rangvariationen
              • WITHIN-Klausel
              • WHERE TOP oder BOTTOM(n) IN
              • WHERE TOP or BOTTOM(n) OF
              • Using Ranking Filters
              • PERCENTILE
          • Granularitätsschlüsselwörter
            • Betrachtungsattribute mit BY-Schlüsselwort überschreiben
              • BY
              • BY ALL
              • BY Attribute ALL IN ALL OTHER DIMENSIONS
              • BY ALL IN ALL OTHER DIMENSIONS
              • Das Attribut BY ALL IN ALL OTHER DIMENSIONS EXCEPT FOR
            • Zeittransformationen
              • Funktionen für die Bezugnahme auf Zeiträume in der Vergangenheit
                • FOR Previous
                • FOR PreviousPeriod
              • Funktionen zum Verweisen auf zukünftige Zeiträume
                • FOR Next
                • FOR NextPeriod
                • FORECAST - Hinzufügen einer Trendlinie zu einem Bericht
            • Funktionen für laufende Summen
              • Gleitfenster
              • Laufende Summen für Kernfunktionen
              • Statistische Funktionen für laufende Summen
          • Filterausdrücke
            • Filtern mit der Klausel WHERE
              • Operatoren zum Definieren von Filtern
                • Gleich-Operator
                • Ungleich-Operator
                • Andere relationale Operatoren
                • IN
                • NOT IN
                • BETWEEN
                • NOT BETWEEN
              • Bezugnahme auf gleitende Zeiträume
                • Das Makro THIS
                • Das Makro PREVIOUS
                • Das Makro NEXT
              • Hinzufügen gefilterter Variablen zu Metrikdefinitionen
            • Filtern mit der Klausel HAVING
            • Übergeordnete Filter überschreiben
              • ÜBERGEORDNETE Filter
            • Filtern mit der Klausel LIKE
          • Logische Funktionen
            • IF THEN ELSE
            • CASE
            • IFNULL
            • Logische Ausdrücke zum Verknüpfen von Filtern
              • NOT
              • OR
              • AND
        • XAE - Extensible Analytics Engine
          • Extensible Analytics Engine (XAE) - Häufig gestellte Fragen
      • Filter in der GoodData-Plattform
      • Daten und Uhrzeiten
        • Datumsattributshierarchien
        • Datumsattributsreferenz
      • Datumsformat ändern
      • Benutzerdefinierte Datumsdimensionen verwalten
      • Formatierung von Zahlen in Betrachtungen
      • Bedingte Zahlenformatierung
      • Farbformatierungsreferenz
      • Benutzerdefinierte Header für exportierte XLSX-Dateien konfigurieren
    • Datenintegration
      • Datenmodellierung bei GoodData
        • Logische Datenmodellkomponenten bei GoodData
          • Datensätze in logischen Datenmodellen
          • Fakten in logischen Datenmodellen
          • Attribute in logischen Datenmodellen
          • Daten in logischen Datenmodellen
          • Verbindungspunkte in logischen Datenmodellen
        • Zuordnung zwischen einem logischen Datenmodell und der Datenquelle
        • Logisches Datenmodell manuell erstellen
        • Logisches Datenmodell aus einer CSV-Datei erstellen
        • Erstellen Sie ein logisches Datenmodell aus Ihrem Cloud Data Warehouse
        • Erstellen Sie ein logisches Datenmodell aus Ihrem Cloud Object Storage Service
        • Erstellen Sie ein logisches Datenmodell aus der Endstufe
        • Ein logisches Datenmodell aktualisieren
        • Ein logisches Datenmodell veröffentlichen
        • Importieren und exportieren Sie ein logisches Datenmodell
        • Customize a Logical Data Model in Client Workspaces within the Same Segment
        • Using a Custom Time Dimension in a Logical Data Model
        • Erstellen Sie die Endstufe basierend auf Ihrem logischen Datenmodell
        • Many-to-Many in logischen Datenmodellen
          • Performance des "Many-to-Many"-Modells
        • Datenmodellierung und MAQL
          • MAQL DDL
          • Change the Length of Attribute Labels
        • Bei zu vielen Datumsdimensionen Ereignisse ausprobieren
      • Vorbereitung und Distribution von Daten
        • Direkte Datenverteilung aus Data Warehouses und Object Storage Services
          • Details zur Integration von GoodData-Azure Blob Storage
          • Details zur Integration von GoodData-Azure SQL Database
          • Details zur Integration von GoodData-Azure Synapse Analytics
          • GoodData-BigQuery Integrationsdetails
          • Details zur Integration von GoodData-Microsoft SQL Server
          • Integrationsdetails zu GoodData-MongoDB BI Connector
          • GoodData-PostgreSQL Integrationsdetails
          • Details zur GoodData-Redshift Integration
          • Details zur Integration von GoodData-S3
          • Details zur GoodData-Snowflake Integration
          • Integrieren Sie Datenbanken direkt in GoodData, basierend auf einem bestehenden LDM
          • Integrieren Sie Daten aus Ihrem Amazon S3 Bucket direkt in GoodData
          • Automatisierte Datenverteilung v2 für Data Warehouses
            • Modi in automatisierter Datenverteilung v2 für Data Warehouses laden
            • Automatisierte Datenverteilung v2 für Data Warehouses einrichten
            • Namenskonvention für Objekte der Endstufe in automatisierter Datenverteilung v2 für Data Warehouses
            • Erstellen Sie die Endstufe basierend auf Ihrem Data Warehouse-Schema
            • Zeitzonen in automatisierter Datenverteilung v2 für Data Warehouses
          • Automatisierte Datenverteilung v2 für Object Storage Services
            • Modi in automatisierter Datenverteilung v2 für Object Storage Services laden
            • Automatisierte Datenverteilung v2 für Object Storage Services
            • Namenskonvention für Objekte der Endstufe in automatisierter Datenverteilung v2 für Object Storage Services
        • Datenaufbereitung und Verteilungs-Pipeline
          • Bevor Sie mit der Datenaufbereitung und Verteilungs-Pipeline beginnen
          • Phasen beim Bau einer Daten-Pipeline
          • Bau einer Daten-Pipeline
          • Daten-Pipeline exportieren und importieren
          • Daten-Pipeline-Referenz
            • Brick-Referenz
              • Brick konfigurieren
              • Downloader
                • CSV-Downloader
                  • Eingabedaten für CSV-Downloader
                  • Manifest-Datei
                  • Feed-Datei
                • Google Analytics-Downloader
                • Google Sheets Downloader
                • Salesforce-Downloader
                • SQL-Downloader
              • Integratoren
                • ADS-Integrator
                  • Kalkulationsfelder
              • Exekutoren
                • SQL-Exekutoren
              • Tools
                • Schedule Execution Brick
                • Tool zur Objektumbenennung
                • Custom Field Creator
                • Laden von Datumsdimensionen
            • Referenz für Datenlager
              • Data Warehouse
                • Kurzanleitung für Data Warehouse
                • Datenstrom von Data Warehouse und der GoodData-Plattform
                • Bestimmungszweck von Data Warehouse
                • Data Warehouse und Vertica
                • Data Warehouse-Architektur
                • Data Warehouse-Technologie
                • Logisches und physisches Modell in Data Warehouse
                • Datenbank-Schemadesign
                  • Logisches Schemadesign - Tabellen und Ansichten
                    • Primär- und Fremdschlüssel
                    • Änderung des logischen Schemas
                  • Physisches Schemadesign - Projektierungen
                    • Spaltenkodierung und Komprimierung
                    • Spaltensortierreihenfolge
                    • Segmentierung
                    • Konfiguration der ersten Superprojektierung mit dem Befehl CREATE TABLE
                    • Erstellen einer neuen Projektierung mit dem Befehl CREATE PROJECTION
                    • Änderung des physischen Schemas
                • Spaltenspeicherung und Komprimierung in Data Warehouse
                • Anschlüsse zum Verbinden mit GoodData
                • Abfrage des Data Warehouse
                • Einschränkungen und Differenzen in Differenz von anderen RDBMS
                  • Einzelnes Schema pro Data Warehouse-Instanz
                  • Kein Vertica-Administratorzugang
                  • COPY FROM LOCAL für das Laden von Daten verwenden
                  • COPY FROM S3 zum Laden von Daten verwenden
                  • Nicht unterstützte Funktionen
                  • Eingeschränkter Zugriff auf Systemtabellen
                  • Eingeschränkter Zugriff auf räumliche Funktionen
                  • Flexible Tabellengrenzen
                  • Datenbank-Designer Tool nicht verfügbar
                  • Einschränkung des JDBC-Treibers
                  • Ressourceneinschränkungen
                  • Andere Einschränkungen
                • Data Warehouse Best Practices
                • Zum Verständnis von Vertica-Fehlercodes
                • Data Warehouse-API-Verweis
              • Arbeiten mit Data Warehouse-Instanzen
                • Erstellen einer Data Warehouse-Instanz
                  • Details-Seite für Data Warehouse-Instanz
                • Überprüfen Ihrer Data Warehouse-Instanzen
                • Deprovisionierung Ihrer Data Warehouse-Instanz
                • Verwaltung von Benutzern und Zugangsrechten
                  • Data Warehouse-Benutzerrollen
                  • Abrufen einer Liste mit Data Warehouse-Benutzern
                  • Hinzufügen eines Benutzers in Data Warehouse
                  • Ändern einer Benutzerrolle in der Data Warehouse-Instanz
                  • Überprüfen von Details zu Data Warehouse-Benutzern
                  • Entfernen eines Benutzers von Data Warehouse
                • ADS Exporter
              • Einrichten einer Verbindung zu Data Warehouse
                • Verbindung mit Data Warehouse mit den SQL-Client-Tools
                  • JDBC-Treiber herunterladen
                    • Treiberversion für Data Warehouse
                    • Anmelden für den JDBC-Treiber
                  • Erstellung der JDBC-Verbindungszeichenfolge
                  • Zugang zu Data Warehouse mit SQuirrel SQL
                • Verbindung mit Data Warehouse mit Java
                • Verbindung mit Data Warehouse über JRuby
                  • Installieren von Ruby
                  • Zugriff auf Data Warehouse über die Sequel-Bibliothek
                  • Instalation der Datenbankanbindung zu Ruby
                    • Installation der Data Warehouse-Unterstützung für JRuby
                    • Beispiel für Ruby-Code für Data Warehouse
            • Referenz für automatisierte Datendistribution
              • Automatisierte Datenverteilung (Automated Data Distribution)
              • Arbeiten mit der automatisierten Datenverteilung (Automated Data Distribution)
              • Löschen von Daten aus Datensätzen in der Automatisierten Datenverteilung (Automated Data Distribution)
              • Namenskonvention für Ausgabestufenobjekte
              • Zeitzonen in der Automatisierten Datenverteilung (Automated Data Distribution)
        • Datenladevorgänge einrichten
          • Referenz für Datenintegrationskonsole
            • Zugriff auf die Datenintegrationskonsole
            • Übersichtsbildschirm der Datenintegrationskonsole
            • Projektbildschirm der Datenintegrationskonsole
          • Datenquelle erstellen
          • Teilen Sie eine Datenquelle mit anderen Nutzern
          • Datenquelle löschen
          • Einen Datenladevorgang auf die automatisierte Datenverteilung v2 anwenden
          • Prozess für Datenpipeline-Brick anwenden
          • Prozess für einen Lebenszyklusverwaltungs-Brick (LCM) anwenden
          • Eine Datenladung planen
          • Datenladeprozess für eine Gruppe von Workspaces planen
          • Edit a Scheduled Data Load
          • Explore Advanced Options of a Scheduled Data Load
          • Planungsparameter konfigurieren
          • Planungssequenzen konfigurieren
          • Prozess nur für manuelle Ausführung planen
          • Einen geplanten Datenladevorgang terminieren
          • Automatisches Wiederholen eines fehlgeschlagenen Datenladevorgangs konfigurieren
          • Einen geplanten Datenladevorgang auf Abruf ausführen
          • Einen geplanten Datenladevorgang deaktivieren
          • Review a Log of Schedule Execution
          • Eine Benachrichtigungsregel für einen Datenladevorgang erstellen
          • Eine Benachrichtigungsregel aus einem Datenladevorgang löschen
          • Verwenden Sie Parameter in mehreren Datenladeprozessen
          • Eine geplante Datenladung löschen
        • CSV-Dateien in Ihren Workspace laden
          • CSV Dateianforderungen
          • Laden Sie CSV-Dateien mit dem LDM Modeler in einen Workspace
            • Daten in einem Datensatz aus einer CSV-Datei aktualisieren
        • Referenz für weitere Daten laden
          • IP Whitelisting
          • Laden von Daten über REST API
          • Beim Laden neuer Daten in einen Datensatz über API alte Daten löschen
          • Transformieren von Daten für Batch-Prognosen und Empfehlungen
            • Datenaufbereitungs- und Datenauswertungsfunktionen
          • Workspace-spezifische Datenspeicherung
          • Benutzerspezifische Datenspeicherung
          • Blueprints
            • Daten-Pipeline-Blueprints
              • ELT-Blueprint
                • ELT-Blueprint - Häufig gestellte Fragen
          • Löschen von Einträgen aus Datensätzen
          • Inkrementelles Laden von Daten
    • Workspace und Benutzerverwaltung
      • Projekte und Projektobjekte verwalten
        • Workspace-ID finden
        • Workspace-Autorisierungstoken finden
        • Finden Sie heraus, auf welcher Datenbank-Engine ein Workspace läuft
        • Suchen des Projekt-Namens
        • Projekt umbenennen
        • Projekt klonen
        • Workspace validieren
        • Workspace erstellen
        • Workspace wechseln
        • Workspace verlassen
        • Workspace löschen
        • Festlegen der Zeitzone für Ihren Workspace
        • Daten aus einem Workspace löschen
        • Zugriff auf die grauen Seiten für einen Workspace
        • Migrieren ausgewählter Objekte zwischen Workspaces
        • Erfassen von Objekt-Identifiern für Projektmetadaten
        • Verschiedene Merkmale über Plattformeinstellungen konfigurieren
        • GoodData-Erweiterungstool für Chrome
      • Multi-Tenancy auf der GoodData-Plattform
      • Workspaces über Lebenszyklusverwaltung verwalten
        • LCM-Implementierung
        • Konfigurieren der LCM über API
        • Bausteine
          • Release-Brick
          • Rollout-Brick
          • Versorgungsbrick
          • Benutzerbaustein
          • Benutzerfilterbaustein
        • Arbeiten mit einem Baustein
          • Angeben komplexer Parameter
          • Arten von Eingabedatenquellen
      • Workspace-Daten und Datenzugriff verwalten
        • Verwalten von Datensätzen
          • Hinzufügen eines Tags zu einem Datensatz
        • Verwalten von Attributen
          • Hinzufügen eines Tags zu einem Attribut
          • Entdecken Sie Attributsbezeichnungen und Drill-Pfade
          • Suchen, wo ein Attribut verwendet wird
          • Festlegen der Attributswert-ID
          • Berechnete Attribute
        • Verwalten von Fakten
          • Hinzufügen eines Tags zu einem Fakt
        • Verwalten von Metriken
          • Hinzufügen eines Tags zu einer Metrik
        • Verwalten von Variablen
        • Workspace-Modell anzeigen
        • Verwendung von Tags
        • Erste Schritte mit Datenberechtigungen
        • Anwendungsfälle erweiterter Datenberechtigungen
        • Erstellen Sie Datengenehmigungen für rollierende Zeiträume
        • Berechtigung, Projektmetriken, Berichte und Dashboards zu bearbeiten
        • Mit Variablen die Datensichtbarkeit steuern
          • Numerische im Vergleich zu gefilterten Variablen
          • Numerische Variablen definieren
          • Einbinden von numerischen Variablen in Workspaces
          • Define Filtered Variables
          • Incorporating Filtered Variables at the Metric Level
          • Aktualisieren von Variablen mit REST API
      • Nutzer in Workspaces verwalten
        • Zuordnen von Benutzern zu Domänen und Projekten
        • Benutzerrollen
          • Benutzerrollen-Berechtigungen
          • Benutzerdefinierte Benutzerrolle erstellen
        • Benutzerversorgung in Projekten mit dem Benutzerbaustein
        • Profile von Workspace-Mitgliedern verwalten
        • Benutzer-ID suchen
        • Aktualisieren einer Benutzer-E-Mail-Adresse
        • Use Groups to Share Dashboards with Multiple Users
        • Einladen von Benutzern mit vordefinierten Datenberechtigungen
        • Deaktivieren/Löschen von Benutzern
        • Standardzahlenformat für Ihr Benutzerkonto einrichten
      • GoodSuccess - GoodData Nutzungsanalyse
    • Erweitern Sie Ihre GoodData-Plattform
      • GoodData-Plattform - Übersicht
        • Tipps zur Leistungssteigerung
          • Data Warehouse-Leistung
            • Vermeiden Sie unnötige UPDATEs
            • Check for Invalid Views
            • Übernormalisieren Sie Ihr Schema nicht
            • Allgemeine Empfehlungen zur Entwicklung von Projektierungen
              • Netzwerk-Joins minimieren
              • Kriterien für die Projektierungssortierung auswählen
              • Behalten Sie die vorab definierte Projektion bei Abfragen
            • Tabellenabschnitte nutzen
            • Verwendung von Kontrolltabellen
            • Verwendung der Lauflängenkodierung (RLE)
            • Verwendung des Stichworts EXPLAIN
            • Schreiben großer Datenaktualisierungen direkt auf die Festplatte
          • Über ein Leistungsproblem berichten
          • Plattformgrenzen
        • Ihre GoodData-Domäne
        • GoodData-Datencenter
        • Datensicherung
        • Ereignisse der Audit-Plattform
        • Token-Arten bei GoodData
          • Ablauf der SST-Sitzung
      • Integration von GoodData in Ihre Anwendung
        • Domäne mit White Label versehen
          • Konfigurieren benutzerdefinierter Titelzeilen und Fußzeilen zum Exportieren von Berichten im PDF-Format
          • Konfigurieren von DKIM für ausgehende E-Mails
          • Standarddomänen und benutzerdefinierte Domänen
          • E-Mail-Vorlagen
          • Häufig gestellte Fragen zum White Labeling
          • White Labeling für eine neue Domäne
          • White Labeling für eine bestehende Domäne
            • Richten Sie ein CNAME ein und erwerben Sie ein TLS-Zertifikat
            • Domänenadministrator wählen
            • Rollout abstimmen
            • Konfiguration der White Labeling-Domäne
        • Einbetten von GoodData-Elementen in Ihre Anwendungen
          • Funktionsverfügbarkeit im eingebetteten und im nicht eingebetteten Modus
          • Analytical Designer einbetten
            • Kommunikation mit eingebettetem Analytical Designer
          • Einbetten eines KPI-Dashboards
            • Kommunikation mit eingebetteten KPI-Dashboards
          • Einbetten von Codeformaten
          • Angleichen von Sitzungen zwischen Ihrer Anwendung und GoodData
          • Einrichten von Ereignissen zum Verfeinern im eingebetteten Analytical Designer und in KPI-Dashboards
          • Direkt im eingebetten Analytical Designer gespeicherte Insight-Events von Benutzern aufzeichnen
          • Stichproben-HTML für Drill-Ereignisse
        • Benutzer-Authentifizierung und SSO einrichten
          • Single Sign-On - Übersicht
          • SAML SSO bei GoodData
            • Einrichten von Fluig Single Sign-On
            • Einrichten von Okta Single Sign-On
            • Einrichtung von Auth0 Single Sign-On
            • Identitäts-Provider mit Salesforce konfigurieren
            • Konfigurieren von Windows Server mit AD FS für GoodData SAML SSO
            • Verwenden Sie SAML Just-in-Time Nutzerversorgung in einer SAML SSO-Umgebung
            • System zur domänenübergreifenden Identitätsmanagement-Benutzerbereitstellung in einer SAML-SSO-Umgebung verwenden
          • PGP Single Sign-On bei GoodData
            • Generieren des Paares Public Key-Privater Schlüssel
        • Metadatenlokalisierung
      • API-Referenz
      • API Version Information und Changelog
      • GoodData-SDK
      • GoodData Java HTTP Client
    • Plattform-Sicherheit und Compliance
      • Security Shield
      • Unterstützte TLS Sicherheitsprotokolle und Ziffern
      • Identitätswechselfunktion
      • Kennwortrichtlinie
      • Firewall
    • GoodData Glossar
    • Zusätzliche Ressourcen
      • Veraltete Funktionen!
        • Amazon S3 Credentials API Resource
        • Hochladen von Daten mit der API-Ressource
        • IP-Adressen zum Laden von Daten
        • Interaktive Explorer
        • Java SDK Versionen 2.32.0 und älter
        • JDBC Driver Version 3.0.2 bis 3.1.2
        • Herkömmliche Salesforce SSO-Methode
        • PGP SSO GET Methode
        • Öffentlicher PGP-SSO-Schlüssel
        • Projektvorlagen
        • SFTP zum Laden von Daten auf die GoodData-Plattform
        • SHA-1 Signatur für SAML
        • Unterstützung für TLS Version 1.0 und 1.1
        • Visualisierungsobjekttyp in Projektmetadaten
      • Downloads
      • Fehlersuche
        • Fehlersuche beim Einbetten
    • Versionshinweise
  • Home
    • Find Documentation for Your GoodData Plan
      • GoodData Pricing Plans' Add-ons
    • How to Get Started with GoodData
      • System Requirements and Supported Browsers
      • Learn the Platform Essentials
        • GoodData Portal
        • Essential Terms and Concepts
      • Work with Workspaces
        • GoodData Demo Workspace
        • Create Workspaces
      • Load Data
        • Import CSV Files into a GoodData Workspace
        • Integrate a Data Source into a GoodData Workspace
          • Integrate a Data Source for a Data Warehouse
            • Import Sample Data to Your Data Source
          • Integrate a Data Source for an Object File Storage
        • Create a Relationship between Datasets
        • Publish your Logical Data Model
        • Load Data from a Data Source to a GoodData Workspace
      • Create Metrics
        • Create and Save a Metric
      • Add Insights and Dashboards
        • Create an Insight
          • Explore and Edit Insights on Dashboards
        • Build Dashboards
      • Share GoodData
        • Add and Manage Users in a Workspace
        • Embedding Analytical Designer
        • Embedding Dashboards
    • Dashboards and Insights
      • Analytical Designer
        • Visualize Your Data
          • Create Insights
          • Insight Types
            • Bar Charts
            • Bubble Charts
            • Bullet Charts
            • Column Charts
            • Combo Charts
            • Donut Charts
            • Geo Charts (pushpins)
              • Configure Data for Geo Charts (pushpins)
            • Headlines
            • Heatmaps
            • Line Charts
            • Pie Charts
            • Scatter Plots
            • Stacked Area Charts
            • Tables
            • Treemaps
          • Filters in Analytical Designer
            • Filter Insights by Values
            • Ranking Filter
            • Filter Metrics by Date
            • Enable Weeks in Date Filters
          • Sort Data in Insights
          • Configure Insight Properties
        • Work With Metrics
          • Data Catalog in Analytical Designer
          • Rename Metrics
          • Format Numbers
          • Time over Time Comparison
          • Create Metrics in Insights
          • Stack Metrics
        • Export and Embed Insights
          • Export Insights
          • Embed Insights
        • Analytical Designer - Frequently Asked Questions
      • Dashboards
        • Create Dashboards
        • Edit Items on Dashboards
        • Share Dashboards
        • Rename Dashboards
        • Duplicate Dashboards
        • Delete Dashboards
        • Add an Alert to a KPI
        • Schedule Automatic Emailing of Dashboards
        • Filters in Dashboards
          • Date Filters in Dashboards
          • Customize Date Filters in Dashboards
        • Drilling in Dashboards
          • Drill to Insights from Dashboards
          • Drill to Another Dashboard
          • Drill to URL from Dashboards
          • Drill Down in Dashboards
        • Export Dashboards
        • Embed Dashboards
        • Dashboards FAQ - Frequently Asked Questions
      • Create Custom Themes
        • Theme Properties
        • Theme Examples
        • Manage Themes with Life Cycle Management
      • Importing Custom Color Palettes
      • MAQL - Analytical Query Language
        • MAQL Use Cases and Tutorials
          • Date Attribute Arithmetic
        • MAQL and Multidimensionality
        • MAQL versus SQL
        • Get Started with Using MAQL to Write Metrics
        • MAQL Expression Reference
          • Aggregation Functions
            • SUM
            • AVG
            • MAX
            • MIN
            • MEDIAN
            • COUNT
            • GREATEST
            • LEAST
            • Statistical Functions
              • Variance Functions
              • Standard Deviation Functions
              • Covariance Functions
              • CORREL
              • Least-Squares Functions
          • Numeric Functions
            • Arithmetic Operations
            • ABS
            • SIGN
            • SQRT
            • LOG
            • LN
            • EXP
            • POWER
            • Rounding and Truncation Functions
              • ROUND
              • FLOOR
              • CEILING
              • TRUNC
            • Rank
              • Rank Variations
              • WITHIN Clause
              • WHERE TOP or BOTTOM(n) IN
              • WHERE TOP or BOTTOM(n) OF
              • Using Ranking Filters
              • PERCENTILE
          • Granularity Keywords
            • Overriding Insight Attributes with BY Keyword
              • BY
              • BY ALL
              • BY attribute ALL IN ALL OTHER DIMENSIONS
              • BY ALL IN ALL OTHER DIMENSIONS
              • BY ALL IN ALL OTHER DIMENSIONS EXCEPT FOR attribute
            • Time Transformations
              • Functions For Referring to Past Time Periods
                • FOR Previous
                • FOR PreviousPeriod
              • Functions for Referring to Future Time Periods
                • FOR Next
                • FOR NextPeriod
                • FORECAST - Adding a Trend Line
            • Running Total Functions
              • Rolling Window
              • Running Totals for Core Functions
              • Running Total Statistical Functions
          • Filter Expressions
            • Filtering with the WHERE Clause
              • Operators for Defining Filters
                • Equals Operator
                • Does Not Equal Operator
                • Other Relational Operators
                • IN
                • NOT IN
                • BETWEEN
                • NOT BETWEEN
              • Referencing Floating Time Periods
                • THIS Macro
                • PREVIOUS Macro
                • NEXT Macro
              • Adding Filtered Variables to Metric Definitions
            • Filtering with the HAVING Clause
            • Overriding Parent Filters
              • PARENT Filters
            • Filtering with the LIKE Clause
          • Logical Functions
            • IF THEN ELSE
            • CASE
            • IFNULL
            • Logical Expressions for Combining Filters
              • NOT
              • OR
              • AND
        • XAE - Extensible Analytics Engine
          • Extensible Analytics Engine (XAE) - FAQ
      • Filters in the GoodData Platform
      • Dates and Times
        • Date Attribute Hierarchies
        • Date Attribute Reference
      • Change Date Format
      • Manage Custom Date Dimensions
      • Formatting Numbers in Insights
      • Conditional Number Formatting
      • Color Formatting Reference
      • Configure Custom Headers for Exported XLSX Files
    • Data Integration
      • Data Modeling in GoodData
        • Logical Data Model Components in GoodData
          • Datasets in Logical Data Models
          • Facts in Logical Data Models
          • Attributes in Logical Data Models
          • Dates in Logical Data Models
          • Connection Points in Logical Data Models
        • Mapping between a Logical Data Model and the Data Source
        • Create a Logical Data Model Manually
        • Create a Logical Data Model from CSV Files
        • Create a Logical Data Model from Your Cloud Data Warehouse
        • Create a Logical Data Model from Your Cloud Object Storage Service
        • Create a Logical Data Model from the Output Stage
        • Update a Logical Data Model
        • Publish a Logical Data Model
        • Import and Export a Logical Data Model
        • Add Custom Fields to the LDMs in Client Workspaces within the Same Segment
        • Using a Custom Time Dimension in a Logical Data Model
        • Create the Output Stage based on Your Logical Data Model
        • Many-to-Many in Logical Data Models
          • Many-to-Many Modeling Performance
        • Data Modeling and MAQL
          • MAQL DDL
          • Change the Length of Attribute Labels
        • If Too Many Date Dimensions, Try Events
      • Data Preparation and Distribution
        • Direct Data Distribution from Data Warehouses and Object Storage Services
          • GoodData-Azure Blob Storage Integration Details
          • GoodData-Azure SQL Database Integration Details
          • GoodData-Azure Synapse Analytics Integration Details
          • GoodData-BigQuery Integration Details
          • GoodData-Microsoft SQL Server Integration Details
          • GoodData-MongoDB BI Connector Integration Details
          • GoodData-MySQL Integration Details
          • GoodData-PostgreSQL Integration Details
          • GoodData-Redshift Integration Details
          • GoodData-S3 Integration Details
          • GoodData-Snowflake Integration Details
          • Integrate Data Warehouses Directly to GoodData based on an Existing LDM
          • Integrate Data from Your Amazon S3 Bucket Directly to GoodData
          • Automated Data Distribution v2 for Data Warehouses
            • Load Modes in Automated Data Distribution v2 for Data Warehouses
            • Set Up Automated Data Distribution v2 for Data Warehouses
            • Naming Convention for Output Stage Objects in Automated Data Distribution v2 for Data Warehouses
            • Create the Output Stage based on Your Data Warehouse Schema
            • Time Zones in Automated Data Distribution v2 for Data Warehouses
          • Automated Data Distribution v2 for Object Storage Services
            • Load Modes in Automated Data Distribution v2 for Object Storage Services
            • Set Up Automated Data Distribution v2 for Object Storage Services
            • Naming Convention for Source Files in Automated Data Distribution v2 for Object Storage Services
        • Data Preparation and Distribution Pipeline
          • Before You Start with Data Preparation and Distribution Pipeline
          • Phases of Building the Data Pipeline
          • Build Your Data Pipeline
          • Export and Import the Data Pipeline
          • Data Pipeline Reference
            • Brick Reference
              • Configure a Brick
              • Downloaders
                • CSV Downloader
                  • Input Data for CSV Downloader
                  • Manifest File
                  • Feed File
                • Google Analytics Downloader
                • Google Sheets Downloader
                • Salesforce Downloader
                • SQL Downloader
              • Integrators
                • ADS Integrator
                  • Computed Fields
              • Executors
                • SQL Executor
              • Utilities
                • Schedule Executor
                • Object Renaming Utility
                • Custom Field Creator
                • Date Dimension Loader
            • Data Warehouse Reference
              • Data Warehouse
                • Data Warehouse Quick Start
                • Data Warehouse and the GoodData Platform Data Flow
                • Intended Usage for Data Warehouse
                • Data Warehouse and Vertica
                • Data Warehouse Architecture
                • Data Warehouse Technology
                • Data Warehouse Logical and Physical Model
                • Database Schema Design
                  • Logical Schema Design - Tables and Views
                    • Primary and Foreign Keys
                    • Altering Logical Schema
                  • Physical Schema Design - Projections
                    • Columns Encoding and Compression
                    • Columns Sort Order
                    • Segmentation
                    • Configuring the Initial Superprojection with CREATE TABLE Command
                    • Creating a New Projection with CREATE PROJECTION Command
                    • Changing Physical Schema
                • Column Storage and Compression in Data Warehouse
                • Ports Used to Connect to GoodData
                • Querying Data Warehouse
                • Limitations and Differences in Data Warehouse from Other RDBMS
                  • Single Schema per Data Warehouse Instance
                  • No Vertica Admin Access
                  • Use COPY FROM LOCAL to Load Data
                  • Use COPY FROM S3 to Load Data
                  • Not Supported Functions
                  • Limited Access to System Tables
                  • Limited Access to Spatial Functions
                  • Flex Table Limits
                  • Database Designer Tool not Available
                  • JDBC Driver Limitations
                  • Resource Limitations
                  • Other Limitations
                • Data Warehouse Best Practices
                • Understanding Vertica Error Codes
                • Data Warehouse API Reference
              • How to Work with Data Warehouse Instances
                • Creating a Data Warehouse Instance
                  • Data Warehouse Instance Details Page
                • Reviewing Your Data Warehouse Instances
                • Deprovision Your Data Warehouse Instance
                • Managing Users and Access Rights
                  • Data Warehouse User Roles
                  • Getting a List of Data Warehouse Users
                  • Adding a User in Data Warehouse
                  • Changing a User Role in the Data Warehouse Instance
                  • Reviewing Data Warehouse User Details
                  • Removing a User from Data Warehouse
                • Exporting Data from Data Warehouse
              • How to Set Up a Connection to Data Warehouse
                • Connecting to Data Warehouse from SQL Client Tools
                  • Download the JDBC Driver
                    • Data Warehouse Driver Version
                    • Enable Logging for the JDBC Driver
                  • Prepare the JDBC Connection String
                  • Access Data Warehouse from SQuirrel SQL
                • Connecting to Data Warehouse from Java
                • Connecting to Data Warehouse from JRuby
                  • Install JRuby
                  • Access Data Warehouse Using the Sequel library
                  • Installing Database Connectivity to Ruby
                    • Installing the Data Warehouse JRuby support
                    • Example Ruby code for Data Warehouse
            • Automated Data Distribution Reference
              • Automated Data Distribution
              • Use Automated Data Distribution
              • Delete Data from Datasets in Automated Data Distribution
              • Naming Convention for Output Stage Objects
              • Time Zones in Automated Data Distribution
        • Setting Up Data Loading Processes
          • Data Integration Console Reference
            • Accessing Data Integration Console
            • Data Integration Console Overview Screen
            • Data Integration Console Workspace Screen
          • Create a Data Source
          • Share a Data Source with Other Users
          • Delete a Data Source
          • Deploy a Data Loading Process for Automated Data Distribution v2
          • Deploy a Data Loading Process for a Data Pipeline Brick
          • Deploy a Data Loading Process for a Life Cycle Management (LCM) Brick
          • Schedule a Data Load
          • Schedule a Data Loading Process for a Group of Workspaces
          • Edit a Scheduled Data Load
          • Explore Advanced Options of a Scheduled Data Load
          • Configure Schedule Parameters
          • Configure Schedule Sequences
          • Schedule a Data Load for Manual Execution Only
          • Time a Scheduled Data Loading Process
          • Configure Automatic Retry of a Failed Data Loading Process
          • Run a Scheduled Data Loading Process on Demand
          • Disable a Scheduled Data Loading Process
          • Review a Log of Data Load Execution
          • Create a Notification Rule for a Data Loading Process
          • Delete a Notification Rule from a Data Loading Process
          • Reuse Parameters in Multiple Data Loading Processes
          • Delete a Scheduled Data Load
        • Load CSV Files to Your Workspace
          • CSV File Requirements
          • Load CSV Files to a Workspace with the LDM Modeler
            • Update Data in a Dataset from a CSV File
        • Additional Data Load Reference
          • GoodData IP Addresses and IP Whitelisting
          • Loading Data via REST API
          • Delete Old Data while Loading New Data to a Dataset via API
          • Transform Data for Batch Predictions and Recommendations
            • Data Preparation and Data Evaluation Functions
          • Workspace Specific Data Storage
          • User Specific Data Storage
          • Blueprints
            • Data Pipeline Blueprints
              • ELT Blueprint
                • ELT Blueprint FAQ
          • Deleting Records from Datasets
          • Incremental Data Loading
    • Workspace and User Administration
      • Administrating Workspaces and Workspace Objects
        • Find the Workspace ID
        • Find the Workspace Authorization Token
        • Find out what Database Engine a Workspace Runs on
        • Find the Workspace Name
        • Rename a Workspace
        • Clone a Workspace
        • Validate a Workspace
        • Create a Workspace
        • Switch Between Workspaces
        • Leave a Workspace
        • Delete a Workspace
        • Set a Custom Time Zone for Your Workspace
        • Deleting Data from a Workspace
        • Access the Gray Pages for a Workspace
        • Migrate Selected Objects between Workspaces
        • Acquiring Object Identifiers for Workspace Metadata
        • Configure Various Features via Platform Settings
        • GoodData Extension Tool for Chrome
      • Multitenancy on the GoodData Platform
      • Managing Workspaces via Life Cycle Management
        • LCM Implementation
        • Configuring LCM via API
        • Bricks
          • Release Brick
          • Rollout Brick
          • Provisioning Brick
          • Users Brick
          • User Filters Brick
        • How to Use a Brick
          • Specifying Complex Parameters
          • Types of Input Data Sources
      • Managing Workspace Data and Data Access
        • Manage Datasets
          • Add a Tag to a Dataset
        • Manage Attributes
          • Add a Tag to an Attribute
          • Discover Attribute Labels and Drill Paths
          • Find Where an Attribute Is Used
          • Determine the Attribute Value ID
          • Use Computed Attributes
        • Manage Facts
          • Add a Tag to a Fact
        • Manage Metrics
          • Add a Tag to a Metric
        • Manage Variables
        • View a Workspace Model
        • Using Tags
        • Data Permissions
        • Advanced Data Permissions Use Cases
        • Create Data Permissions for Rolling Time Periods
        • Permission to Edit Workspace Metrics
        • Using Variables to Control Data Visibility
          • Numerical vs Filtered Variables
          • Define Numerical Variables
          • Incorporating Numerical Variables into Workspaces
          • Define Filtered Variables
          • Incorporating Filtered Variables at the Metric Level
          • Updating the Variable Using REST API
      • Managing Users in Workspaces
        • Provisioning Users to Domains and Workspaces
        • User Roles
          • User Roles Permissions
          • Create a Custom User Role
        • Use the Users Brick to Provision Users in Your Workspaces
        • Managing Workspace Member Profiles
        • Find the User ID
        • Update a User Email
        • Use Groups to Share Dashboards with Multiple Users
        • Inviting Users with Pre-applied Data Permissions
        • Disable or Delete Users
        • Set Default Number Format for Your User Account
      • GoodSuccess - GoodData Usage Analytics
    • Expand Your GoodData Platform
      • GoodData Platform Overview
        • Performance Tips
          • Data Warehouse Performance
            • Avoid Unnecessary UPDATEs
            • Check for Invalid Views
            • Do Not Overnormalize Your Schema
            • General Projection Design Tips
              • Minimize Network Joins
              • Choose Projection Sorting Criteria
              • Keep the Predefined Projection in Queries
            • Take Advantage of Table Partitions
            • Use Monitoring Tables
            • Use Run Length Encoding (RLE)
            • Use the EXPLAIN Keyword
            • Write Large Data Updates Directly to Disk
          • Report a Performance Issue
          • Platform Limits
        • Your GoodData Domain
        • GoodData Datacenters
        • Data Backup
        • Auditing Platform Events
        • GoodData Token Types
          • SST Session Expiration
      • GoodData Integration into Your Application
        • White Label Your Domain
          • Configure Custom Headers and Footers for PDF Report Exports
          • Configure DKIM for Outgoing Email
          • Default and Custom Domains
          • Email Templates
          • Frequently Asked Questions about White Labeling
          • White-Label a New Domain
          • White-Label an Existing Domain
            • Set up a CNAME and Acquire a TLS Certificate
            • Choose a Domain Administrator
            • Coordinate Rollout
            • Customize the White-Labeled Domain
        • Embed GoodData Elements into Your Applications
          • Feature Availability in Embedded and Non-embedded Mode
          • Embed Analytical Designer
            • Communication with Embedded Analytical Designer
          • Embed a Dashboard
            • Communication with Embedded Dashboards
          • Embedding Code Formats
          • Aligning Sessions Between Your Application and GoodData
          • Setting up Events for Drilling in Embedded Analytical Designer and Dashboards
          • Capture the Save an Insight Event from Embedded Analytical Designer
          • Sample HTML for Drill Eventing
        • Set up User Authentication and SSO
          • Single Sign-On Overview
          • SAML SSO with GoodData
            • Setting up Fluig Single Sign-On
            • Setting up Okta Single Sign-On
            • Setting up Auth0 Single Sign-On
            • Configure Identity Provider with Salesforce
            • Configuring Windows Server with AD FS for GoodData SAML SSO
            • Use SAML Just-in-Time User Provisioning in a SAML SSO Environment
            • Use System for Cross-domain Identity Management User Provisioning in a SAML SSO Environment
          • GoodData PGP Single Sign-On
            • How to Generate a Public-Private Key Pair
        • Metadata Localization
      • API Reference
      • API Version Information and Changelog
      • GoodData SDK
      • GoodData Java HTTP Client
    • Platform Security and Compliance
      • Security Shield
      • Supported TLS Security Protocols and Ciphers
      • Impersonation Feature
      • Password Policy
      • Firewall
    • GoodData Glossary
    • Additional Resources
      • Deprecated Features
        • Amazon S3 Credentials API Resource
        • Data Upload API Resource
        • Deprecated IP Addresses
        • Interactive Explorers
        • Java SDK Versions 2.32.0 and Older
        • JDBC Driver Version 3.0.2 through 3.1.2
        • Legacy Salesforce SSO Method
        • PGP SSO GET Method
        • PGP SSO Public Key
        • Project Templates
        • SFTP for Loading Data to the GoodData Platform
        • SHA-1 Signature for SAML
        • Support for TLS Version 1.0 and 1.1
        • visualization Object Type in Project Metadata
      • Downloads
      • Troubleshooting
        • Embedding Issues
    • Release Notes
  • Home