Learn
Learn
University
Community
Documentation
Support
Go to GoodData.com
GoodData Classic
All Products
Verwenden Sie den CSV-Uploader zur Ad-hoc Analyse
German
French
German
Japanese (Japan)
Portuguese (Brazil)
Spanish
All Products
Verwenden Sie den CSV-Uploader zur Ad-hoc Analyse
Home
Erste Schritte mit GoodData
Systemanforderungen und unterstützte Browser
Klassische GoodData-Dokumentation
GoodData-Portal
GoodData Abonnement Add-Ons
Dashboards und Betrachtungen
Analytical Designer
Visualisieren Ihrer Daten
Betrachtungen erstellen
Betrachtungstypen
Balkendiagramme
Blasendiagramme
Bullet-Diagramme
Säulendiagramme
Kombo-Diagramme
Ringdiagramme
Geo-Diagramme (Markierungspins)
Daten für Geo-Diagramme (Markierungspins) konfigurieren
Titelzeilen
Heatmaps
Liniendiagramme
Kreisdiagramme
Pivot-Tabellen
Punktdiagramme
Gestapeltes Flächendiagramm
Baumkarte
Filter im Analytischen Designer
Betrachtungen nach Werten filtern
Rangfilter
Metriken nach Datum filtern
Wochen im Datumsfilter aktivieren
Betrachtungseigenschaften konfigurieren
Daten in Betrachtungen sortieren
Mit Metriken arbeiten
Datenkatalog im Analytischen Designer
Metriken umbenennen
Nummern formatieren
Vergleichende Berichte über Zeiträume
Metriken in Betrachtungen erstellen
Metriken stapeln
Betrachtungen exportieren und einbetten
Betrachtungen exportieren
Betrachtungen einbetten
Häufig gestellte Fragen zu Analytical Designer
KPI-Dashboards
Einrichten eines KPI-Dashboards
Elemente in KPI-Dashboards bearbeiten
KPI-Dashboards teilen
Umbennen eines KPI-Dashboards
KPI-Dashboards duplizieren
KPI-Dashboard löschen
Hinzufügen einer Warnmeldung zu einem KPI
Automatische E-Mails von KPI-Dashboards einrichten
Filter in KPI-Dashboards
Datenfilter in KPI-Dashboards
Passen Sie Datenfilter in KPI-Dashboards an
Datenfilterung in KPI-Dashboards
Betrachtungen von KPI-Dashboards filtern
Zu einem anderen KPI-Dashboard vordringen
Von KPI-Dashboards zu URL drillen
Drill-Down in KPI-Dashboards
KPI-Dashboards exportieren
KPI-Dashboards einbetten
KPI Dashboard FAQ - Häufig gestellte Fragen
Benutzerdefinierte Designs erstellen
Designeigenschaften
Designbeispiele
Designverwaltung mit Lebenszyklusverwaltung
Benutzerdefinierte Farbpaletten importieren
Berichte
Arbeiten mit Berichten
Erstellen neuer Berichte im Berichtseditor
Fensterbereich Was - Hinzufügen von Metriken zu Berichten
Fensterbereich Wie - Hinzufügen von Attributen zu Berichten
Fensterbereich Filter - Filtern in einem Bericht
Filtern aus einer Liste von Werten
Rangfilter in Berichten
Numerischer Bereichsfilter
Variablenfilter
Maximale Berichtsgröße
Arbeiten mit Berichtsversionen
Hinzufügen von Grenzwerten und Zielen zu einem Bericht
Anzeigen ausgelassener leerer Werte in einer Tabelle
Erstellen eines Titelzeilenberichts
Berichtsstatistiken im Fensterbereich Konfiguration
Berichtsverwendung im Fensterabschnitt Konfiguration
Erstellen eines zeitraumübergreifenden Berichts
Teilen eines Berichts
Berichtsrohdaten exportieren
Drilling von Berichten
Drill-Across
Drill-Down
Drill-In
Definition globaler Drill-Down-Pfade
Berichtsinformationsseite
Exportieren von Berichten
Dateitypen exportieren
Arbeiten mit Diagrammen
Konfigurieren eines Diagramms
Erweiterte Diagrammkonfiguration
Bezeichnung der primären und sekundären Achsen
Konfiguration der Diagrammfarben
Definition verschiedener Diagrammanzeige- und -beschriftungsoptionen
Diagrammsortierung
Erstellen von Daten für Geodiagramme
Geo-Diagramme erstellen
Globale Einstellungen
Diagrammtypen
Flächendiagramm im Berichts-Editor
Balkendiagramm im Berichts-Editor
Blasendiagramm im Berichts-Editor
Bullet-Diagramm im Berichts-Editor
Kombo-Diagramm im Berichts-Editor
Ringdiagramme im Berichts-Editor
Trichterdiagramm im Berichts-Editor
Liniendiagramm im Berichts-Editor
Kreisdiagramm im Berichts-Editor
Kreis- und Ringdiagramme im Berichts-Editor
Punktdiagramm im Berichts-Editor
Gestapeltes Flächendiagramm im Berichts-Editor
Gestapeltes Balkendiagramm im Berichts-Editor
Wasserfalldiagramm im Berichts-Editor
Arbeiten mit Tabellen
Bericht als Tabelle anzeigen
Hinzufügen von Farbformatierung zu Tabellen
Umbenennen von Zeilen und Spaltenüberschriften
Anpassen der Spaltenbreite
Prozentanteile berechnen
Neuanordnung von Zeilen und Spalten
Wechseln von Tabellen
Anzeigen mehrerer Metriken in separaten Zeilen oder in separaten Spalten
Heatmap-Tabelle erstellen
Formatieren von Tabellenwerten im Fensterabschnitt Konfiguration
Detail zu einer Metrik oder einem Attributswert hinzufügen
Aggregierte Tabellendaten
Beschriftung für Tabellenwerte ändern
Metrikwert filtern
Objektdetails der Tabelle abrufen
Sortieren von Zeilen- und Spaltenwerten
Dashboards
Erstellung von Dashboards
Planen Ihres Dashboards.
Dashboard erstellen
Dashboards, Registerkarten und Berichte bearbeiten
Dashboard-Elemente konfigurieren
Eine Registerkarte verwalten
So duplizieren Sie Ihr Dashboard.
Dashboard löschen
Dashboard-Design Lab
Benutzerdefiniertes Einbettungswerkzeug
Dashboard-Designtipps
Dashboard-Gestaltung
Dashboard-Makros
Dashboard-Makro-Referenz
Ausgewählte Filterwerte in einem Dashboard-Textfeld anzeigen
Hinzufügen von dynamischen Bildern zu Ihren Workspaces
Verwendung von Dashboards
Dashboard-Filter
Filter für Attribute
Filter für Daten
Setzen Sie den ersten Wochentag in den Datumsfiltern als Montag fest
Filter für Variablen
Dashboard-Filter aus einem Bericht herauslösen
Werte von Attributsfiltern ausfiltern
Einrichten einer Filtergruppe
Einrichten von kaskadierenden Filtern
Berichte nach anderen Berichten filtern
Verwendung von gespeicherten Ansichten
Workspace und Dashboards und Registerkarten
Planen, Dashboards automatisch per E-Mail an sich selbst und andere zu senden
Dashboard auf einem TV-Bildschirm anzeigen
Zahlen und Pfeile in Dashboards
Eine höhere Effektivitätsstufe für Ihre Dashboards
MAQL - Analytische Abfragesprache
MAQL und Multidimensionalität
MAQL vs. SQL
Erste Schritte beim Schrieben von Metriken mit MAQL
MAQL-Ausdrucksreferenz
Aggregationsfunktionen
SUM
AVG
MAX
MIN
MEDIAN
COUNT
GREATEST
LEAST
Statistische Funktionen
Varianzfunktionen
Standardabweichungsfunktionen
Kovarianzfunktionen
CORREL
Kleinste Quadratfunktionen
Numerische Funktionen
Arithmetische Operationen
ABS
SIGN
SQRT
LOG
LN
EXP
POWER
Rundungs- und Kürzungsfunktionen
ROUND
FLOOR
CEILING
TRUNC
Rank (Rangfolge)
Rangveränderungsbericht erstellen
Rangvariationen
WITHIN-Klausel
WHERE TOP oder BOTTOM(n) IN
WHERE TOP or BOTTOM(n) OF
Using Ranking Filters
PERCENTILE
Granularitätsschlüsselwörter
Überschreiben von Berichtsattributen
BY
BY ALL
BY Attribute ALL IN ALL OTHER DIMENSIONS
BY ALL IN ALL OTHER DIMENSIONS
Das Attribut BY ALL IN ALL OTHER DIMENSIONS EXCEPT FOR
Variationen der Klausel BY
Sperren der Aggregation durch die Klausel BY
Zeittransformationen
Funktionen für die Bezugnahme auf Zeiträume in der Vergangenheit
FOR Previous
FOR PreviousPeriod
Funktionen zum Verweisen auf zukünftige Zeiträume
FOR Next
FOR NextPeriod
FORECAST - Hinzufügen einer Trendlinie zu einem Bericht
Funktionen für laufende Summen
Gleitfenster
Laufende Summen für Kernfunktionen
Statistische Funktionen für laufende Summen
Laufende Summen im Dialog Slice and Dice
Filterausdrücke
Filtern mit der Klausel WHERE
Operatoren zum Definieren von Filtern
Gleich-Operator
Ungleich-Operator
Andere relationale Operatoren
IN
NOT IN
BETWEEN
NOT BETWEEN
Bezugnahme auf gleitende Zeiträume
Das Makro THIS
Das Makro PREVIOUS
Das Makro NEXT
Hinzufügen gefilterter Variablen zu Metrikdefinitionen
Filtern mit der Klausel HAVING
Übergeordnete Filter überschreiben
ÜBERGEORDNETE Filter
Verwendung von WITHOUT PARENT für prozentuale Basiswerte
Filtern mit der Klausel LIKE
Logische Funktionen
IF THEN ELSE
CASE
IFNULL
Logische Ausdrücke zum Verknüpfen von Filtern
NOT
OR
AND
Erweiterte Metriken erstellen
Überblick-Dashboard
Vergleichen Sie Daten aus mehreren Zeiträumen in einem Bericht
Tutorial - Erstellen von Buckets für Attributswerte
Tutorial - Generieren eines Kohortenberichts
Explizites Erhöhen
Datumsattributsarithmetik
Laufende Summen in Metriken
Zeitvergleichende Berichte in Berichte
Filtern einer untergeordneten Tabelle anhand von Variablen
Analyse von Veränderungen mit historischen Daten (Snapshotting)
Vergleichen dynamisch gefilterter Werte in einem einzelnen Bericht
Suchen von Min- und Max-Daten mittels Datumsarithmetik
Erweiterte TOP und BOTTOM-Ränge
XAE - Extensible Analytics Engine
Extensible Analytics Engine (XAE) - Häufig gestellte Fragen
Upgrade XAE zur Version 3
Filter in der GoodData-Plattform
Daten und Uhrzeiten
Datumsattributshierarchien
Datumsattributsreferenz
Datumsformat ändern
Benutzerdefinierte Datumsdimensionen verwalten
Formatierung von Zahlen in Betrachtungen und Berichten
Bedingte Zahlenformatierung
Farbformatierungsreferenz
Tastenkombinationen
Datenintegration
Datenmodellierung bei GoodData
Logische Datenmodellkomponenten bei GoodData
Datensätze in logischen Datenmodellen
Fakten in logischen Datenmodellen
Attribute in logischen Datenmodellen
Daten in logischen Datenmodellen
Verbindungspunkte in logischen Datenmodellen
Zuordnung zwischen einem logischen Datenmodell und der Datenquelle
Logisches Datenmodell manuell erstellen
Logisches Datenmodell aus einer CSV-Datei erstellen
Erstellen Sie ein logisches Datenmodell aus Ihrem Cloud Data Warehouse
Erstellen Sie ein logisches Datenmodell aus Ihrem Cloud Object Storage Service
Erstellen Sie ein logisches Datenmodell aus der Endstufe
Ein logisches Datenmodell aktualisieren
Ein logisches Datenmodell veröffentlichen
Importieren und exportieren Sie ein logisches Datenmodell
Hinzufügen von benutzerdefinierten Feldern zu den LDMs in Client-Workspaces innerhalb desselben Segments
Erstellen Sie die Endstufe basierend auf Ihrem logischen Datenmodell
Many-to-Many in logischen Datenmodellen
Performance des "Many-to-Many"-Modells
Berichterstattung zu M-N-Metriken nach Tag
Berichterstattung zu M-N-Metriken nach anderen Tags
Berichterstattung zu M-N-Metriken nach mehreren Tags
Berichterstattung zu M-N-Metriken nach nicht einbezogenen Tags
Erstellen von „Many-to-Many“-Beziehungen bei GoodData
Datenmodellierung und MAQL
MAQL DDL
Bei zu vielen Datumsdimensionen Ereignisse ausprobieren
Datenmodellierung mit dem CloudConnect Tool
Datenmodellierung in CloudConnect lernen
CloudConnect Modeler Benutzeroberfläche
CloudConnect Modeler Bearbeitungsfenster
CloudConnect Modeler Tab-Fenster
CloudConnect Modeler Outline-Fenster
CloudConnect Modeler Projekt-Explorer-Fenster
CloudConnect Modeler Toolbar und Suche
Erstes Datenmodell in CloudConnect erstellen
Datenschema-Beispiel und wie man Daten strukturiert
Bauen Sie Ihr erstes logisches Datenmodell im CloudConnect Modeler auf
Erstellung Ihres CloudConnect-Projekts
Öffnen des CloudConnect LDM Modeler
LDM-Namenskonventionen
Hinzufügen Ihres ersten Datensatzes im CloudConnect Modeler
Hinzufügen von Attributen und Fakten zu einem Datensatz im CloudConnect Modeler
Aufbauen von Hierarchien im CloudConnect Modeler
Erstellen eines Datzensatzes im CloudConnect Modeler
Verschieben von Attributen im CloudConnect Modeler
Definieren einer Beziehung zwischen Datensätzen in CloudConnect
Erstellen des Datensatzes Abteilung
Hinzufügen eines Datums im CloudConnect Modeler
Aufbau von Beziehungen zwischen den beiden Objekten
Aktualisieren von anderen Projekten mit Ihrem LDM in CloudConnect
Erstellen eines Datenmodells in CloudConnect (Zusammenfassung)
Arbeiten mit logischen Datenmodellen in CloudConnect
CloudConnect LDM Modeler Workflow
Erstellen eines neuen logischen Datenmodells in CloudConnect
Aktualisieren eines Datenmodells in CloudConnect
Veröffentlichen eines logischen Datenmodells in CloudConnect
Änderung des Working CloudConnect Projekts
Veröffentlichung Ihres logischen Datenmodells in CloudConnect
Verwalten von LDM Projektänderungen in CloudConnect
Veröffentlichung Ihres logischen Datenmodells in mehreren Projekten
Veröffentlichen einer Kopie Ihres LDMs bei mehreren Projekten in CloudConnect
Veröffentlichen eines LDMs bei mehreren Projekten in CloudConnect
Löschen eines Datenmodells in CloudConnect
Exportieren Ihres logischen Datenmodells in CloudConnect
Importieren Ihres logischen Datenmodells in CloudConnect
Herunterladen eines logischen Datenmodells aus der Plattform in CloudConnect
Versionskontrolle in CloudConnect
Überprüfung Ihres Datenmodells in CloudConnect
Arbeiten mit LDM-Objekten in CloudConnect
Hinzufügen von Objekten zu Ihrem CloudConnect-Projekt
Hinzufügen von LDM-Datensätzen in CloudConnect
Datensatz-Ordnername
Attribute und Fakten Fenster in CloudConnect
Datenmodell-Objektarten im CloudConnect Modeler
LDM-Objekt Datentypen in CloudConnect
Hinzufügen eines LDM-Objekts in CloudConnect
Importierten von Kommandozeilen-(CL)-Tool-XMLs
Bearbeiten von Objekteigenschaften im CloudConnect Modeler
Bearbeiten von Datensatz-Eigenschaften in CloudConnect
Bearbeiten von Datensatz-Eigenschaften von Daten in CloudConnect
Konvertieren eines Fakts in ein Attribut in CloudConnect
Umbenennen eines Fakts oder Attributs in CloudConnect
Aufbau von Beziehungen zwischen Objekten im CloudConnect Modeler
Verwalten von LDM-Abhängigkeiten in CloudConnect
Entfernen von Attributen und Fakten aus Ihrem LDM in CloudConnect
Zwangsveröffentlichen eines LDMs in CloudConnect
In einem logischen Datenmodell mit einer benutzerdefinierten Zeitdimension arbeiten
Während der Praxis das Erstellen von Datenmodellen lernen
CloudConnect Projektstrukturen
Verbinden Sie sich mit der Plattform über CloudConnect.
Tastenkombinationen in CloudConnect
Arbeiten mit der Grain-Faktentabellen mit Hilfe des CloudConnect Modelers
API zum Erstellen von Datenmodellen (Cloud Connect)
Tutorials für Datenmodellierung für CloudConnect und APIs
Erstellen eines LDM für ein Facebook-Projektbeispiel
Erstellen eines Analyseprojekts mit MAQL DDL
Länge der Attributsbezeichnungen Ändern
Auswählen eines primären Attributsidentifikators in Ihrer ETL-Graphik
Definieren der benutzerdefinierten Sortierreihenfolge für ein Attribut
Direktes Abtrennen von Datensätzen
Beispiel: Zählen von Attributswerten in bestimmten Datensätzen
Flexibel Abfragen mit einer abgetrennten Datumsdimension
Techniken zur Modellerstellung - FAKTen in der Hierarchie nach unten verschieben
Schmerzloses Abtrennung von Datumsdimensionen
Auflösen von Abhängigkeiten des logischen Datenmodells
Grain einer Fakttabelle auf Vermeidung doppelter Datensätze einstellen
Momentaufnahmen-Dimensionen
Optimieren der Datenmodelle zwecks besserer Leistung
Personaldatenanalyse
Vorbereitung und Distribution von Daten
Direkte Datenverteilung aus Data Warehouses und Object Storage Services
Details zur Integration von GoodData-Azure Blob Storage
Details zur Integration von GoodData-Azure SQL Database
Details zur Integration von GoodData-Azure Synapse Analytics
GoodData-BigQuery Integrationsdetails
Details zur Integration von GoodData-Microsoft SQL Server
Integrationsdetails zu GoodData-MongoDB BI Connector
GoodData-PostgreSQL Integrationsdetails
Details zur GoodData-Redshift Integration
Details zur Integration von GoodData-S3
Details zur GoodData-Snowflake Integration
Integrieren Sie Datenbanken direkt in GoodData, basierend auf einem bestehenden LDM
Integrieren Sie Daten aus Ihrem Amazon S3 Bucket direkt in GoodData
Automatisierte Datenverteilung v2 für Data Warehouses
Modi in automatisierter Datenverteilung v2 für Data Warehouses laden
Automatisierte Datenverteilung v2 für Data Warehouses einrichten
Namenskonvention für Objekte der Endstufe in automatisierter Datenverteilung v2 für Data Warehouses
Erstellen Sie die Endstufe basierend auf Ihrem Data Warehouse-Schema
Zeitzonen in automatisierter Datenverteilung v2 für Data Warehouses
Automatisierte Datenverteilung v2 für Object Storage Services
Modi in automatisierter Datenverteilung v2 für Object Storage Services laden
Automatisierte Datenverteilung v2 für Object Storage Services
Namenskonvention für Objekte der Endstufe in automatisierter Datenverteilung v2 für Object Storage Services
Datenaufbereitung und Verteilungs-Pipeline
Bevor Sie mit der Datenaufbereitung und Verteilungs-Pipeline beginnen
Phasen beim Bau einer Daten-Pipeline
Bau einer Daten-Pipeline
Daten-Pipeline exportieren und importieren
Daten-Pipeline-Referenz
Brick-Referenz
Brick konfigurieren
Downloader
CSV-Downloader
Eingabedaten für CSV-Downloader
Manifest-Datei
Feed-Datei
Google Analytics-Downloader
Herunterladen von Google Tabellen
Salesforce-Downloader
SQL-Downloader
Integratoren
ADS-Integrator
Kalkulationsfelder
Exekutoren
SQL-Exekutoren
Tools
Schedule Execution Brick
Tool zur Objektumbenennung
Erstellen von benutzerdefinierten Feldern
Laden von Datumsdimensionen
Referenz für Datenlager
Data Warehouse
Kurzanleitung für Data Warehouse
Datenstrom von Data Warehouse und der GoodData-Plattform
Bestimmungszweck von Data Warehouse
Data Warehouse und Vertica
Data Warehouse-Architektur
Data Warehouse-Technologie
Logisches und physisches Modell in Data Warehouse
Datenbank-Schemadesign
Logisches Schemadesign - Tabellen und Ansichten
Primär- und Fremdschlüssel
Änderung des logischen Schemas
Physisches Schemadesign - Projektierungen
Spaltenkodierung und Komprimierung
Spaltensortierreihenfolge
Segmentierung
Konfiguration der ersten Superprojektierung mit dem Befehl CREATE TABLE
Erstellen einer neuen Projektierung mit dem Befehl CREATE PROJECTION
Änderung des physischen Schemas
Spaltenspeicherung und Komprimierung in Data Warehouse
Anschlüsse zum Verbinden mit GoodData
Abfrage des Data Warehouse
Einschränkungen und Differenzen in Differenz von anderen RDBMS
Einzelnes Schema pro Data Warehouse-Instanz
Kein Vertica-Administratorzugang
COPY FROM LOCAL für das Laden von Daten verwenden
COPY FROM S3 zum Laden von Daten verwenden
Nicht unterstützte Funktionen
Eingeschränkter Zugriff auf Systemtabellen
Eingeschränkter Zugriff auf räumliche Funktionen
Flexible Tabellengrenzen
Datenbank-Designer Tool nicht verfügbar
Einschränkung des JDBC-Treibers
Ressourceneinschränkungen
Andere Einschränkungen
Data Warehouse Best Practices
Zum Verständnis von Vertica-Fehlercodes
Data Warehouse-API-Verweis
Arbeiten mit Data Warehouse-Instanzen
Erstellen einer Data Warehouse-Instanz
Details-Seite für Data Warehouse-Instanz
Überprüfen Ihrer Data Warehouse-Instanzen
Deprovisionierung Ihrer Data Warehouse-Instanz
Verwaltung von Benutzern und Zugangsrechten
Data Warehouse-Benutzerrollen
Abrufen einer Liste mit Data Warehouse-Benutzern
Hinzufügen eines Benutzers in Data Warehouse
Ändern einer Benutzerrolle in der Data Warehouse-Instanz
Überprüfen von Details zu Data Warehouse-Benutzern
Entfernen eines Benutzers von Data Warehouse
ADS Exporter
Einrichten einer Verbindung zu Data Warehouse
Verbindung mit Data Warehouse mit CloudConnect
Herstellen einer Verbindung zwischen CloudConnect und Data Warehouse
Laden von Daten in Data Warehouse über CloudConnect
Projektparameter für Data Warehouse
Erstellen von Tabellen in Data Warehouse mit CloudConnect
Laden von Daten in Anordnungstabellen in Data Warehouse mit CloudConnect
Zusammenführen von Daten von Anordnungstabellen in Data Warehouse in Produktionstabellen
Daten vom Data Warehouse exportieren
Laden komprimierter Daten
Auswählen eines Data Warehouse Parsers
GdcCsvParser-Optionen
Verwenden Sie mit RFC 4180 kompatible CSV-Dateien für das Hochladen
Fehlerbehandlung
Daten mithilfe von Anordnungstabellen zusammenfügen
Statistiksammlung
Verbindung mit Data Warehouse mit den SQL-Client-Tools
JDBC-Treiber herunterladen
Treiberversion für Data Warehouse
Anmelden für den JDBC-Treiber
Erstellung der JDBC-Verbindungszeichenfolge
Zugang zu Data Warehouse mit SQuirrel SQL
Verbindung mit Data Warehouse mit Java
Verbindung mit Data Warehouse über JRuby
Installieren von Ruby
Zugriff auf Data Warehouse über die Sequel-Bibliothek
Instalation der Datenbankanbindung zu Ruby
Installation der Data Warehouse-Unterstützung für JRuby
Beispiel für Ruby-Code für Data Warehouse
Erste Schritte mit Agile Data Warehousing Service
Referenz für automatisierte Datendistribution
Automatisierte Datenverteilung (Automated Data Distribution)
Arbeiten mit der automatisierten Datenverteilung (Automated Data Distribution)
Löschen von Daten aus Datensätzen in der Automatisierten Datenverteilung (Automated Data Distribution)
Namenskonvention für Ausgabestufenobjekte
Zeitzonen in der Automatisierten Datenverteilung (Automated Data Distribution)
Datenladevorgänge einrichten
Referenz für Datenintegrationskonsole
Benutzer der Datenintegrationskonsole
Zugriff auf die Datenintegrationskonsole
Übersichtsbildschirm der Datenintegrationskonsole
Projektbildschirm der Datenintegrationskonsole
Empfohlene Verfahren für das Verwalten von Datenladeprozessen
Datenquelle erstellen
Teilen Sie eine Datenquelle mit anderen Nutzern
Datenquelle löschen
Einen Datenladevorgang auf die automatisierte Datenverteilung v2 anwenden
Einen Datenladevorgang auf einen Datenpipeline-Brick anwenden
Einen Datenladevorgang auf einen Lebenszyklusverwaltungs-Brick (LCM) anwenden
Einen Datenladevorgang auf ein Ruby-Skript anwenden
Einen Datenladevorgang auf ein CloudConnect-Diagramm anwenden
Einen Datenladevorgang planen
Datenladeprozess für eine Gruppe von Workspaces planen
Planungsparameter konfigurieren
Planungssequenzen konfigurieren
Einen Datenladevorgang nur für manuelle Ausführung planen
Einen geplanten Datenladevorgang terminieren
Automatisches Wiederholen eines fehlgeschlagenen Datenladevorgangs konfigurieren
Einen geplanten Datenladevorgang auf Abruf ausführen
Einen geplanten Datenladevorgang deaktivieren
Ein Protokoll der Ausführung eines Datenladevorgangs überprüfen
Eine Benachrichtigungsregel für einen Datenladevorgang erstellen
Eine Benachrichtigungsregel aus einem Datenladevorgang löschen
Mehrere Empfänger von Benachrichtigungsregeln über die grauen Seiten aktualisieren
Eine Benachrichtigungsregel für einen Datenladevorgang per API einrichten
Verwenden Sie Parameter in mehreren Datenladeprozessen
Einen Datenladevorgang löschen
Einen Zeitplan löschen
CSV-Dateien in Ihren Workspace laden
CSV Dateianforderungen
Laden Sie CSV-Dateien mit dem LDM Modeler in einen Workspace
Daten in einem Datensatz aus einer CSV-Datei aktualisieren
Verwenden Sie den CSV-Uploader zur Ad-hoc Analyse
Aktualisieren der aus einer Datei hochgeladenen Daten
Kombinieren von Daten, die aus einer Datei hochgeladen wurden, mit Projektdaten
Löschen der aus einer Datei hochgeladenen Daten
Referenz für weitere Daten laden
IP Whitelisting
Laden von Daten über REST API
Beim Laden neuer Daten in einen Datensatz über API alte Daten löschen
Transformieren von Daten für Batch-Prognosen und Empfehlungen
Datenaufbereitungs- und Datenauswertungsfunktionen
Workspace-spezifische Datenspeicherung
Benutzerspezifische Datenspeicherung
Blueprints
Daten-Pipeline-Blueprints
ELT-Blueprint
ELT-Blueprint - Häufig gestellte Fragen
Blueprint zum Laden von Daten in den Workspace
Workspace-Blueprint
Daten mit CloudConnect laden
CloudConnect-Kernkonzepte
Systemvoraussetzungen für CloudConnect
Beispielprojekte in CloudConnect
Datenlademodi in CloudConnect
Inkrementelles Laden von Daten
Interaktionen zwischen der Datenintegrationskonsole und dem CloudConnect Designer
Aktualisieren von CloudConnect
GoodData-Passwortänderung auf den CloudConnect Designer anwenden
GoodData CloudConnect Tutorial
Konzepte
Setup
Erstellen eines Datenmodells
Vorbereiten eines Datenladeprozesses
Automatisieren eines Datenladeprozesses.
Erstellen von Metriken und Berichten
Erstellung eines Dashboards
Nächste Schritte
Einrichten von OAuth 2.0
Verwenden von OAuth 1.0a in Verbindung mit REST Connector
Globale dynamische Variablen in CloudConnect
Erweiterbarer Datenladeprozess
So erhalten Sie das Facebook OAuth-Token für die GoodData-Integration
Empfohlene Praktiken zur ETL-Entwiclung
Herunterladen eines CloudConnect-Prozesses von der Plattform
Verwenden von CloudConnect in Verbindung mit White-Label-GoodData
Kombinieren von Google Analytics und Twitter-Suchprojekten
CloudConnect - Zugriff auf den internen Projektspeicher
Architektur der CloudConnect-Vorformatierung
Komponenten zusammenfügen im Vergleich zur CTL2-Suchfunktion
Zusätzliche CTL-Funktionsbibliotheken
Erstellen benutzerdefinierter Benachrichtigungsereignisse
CloudConnect - Neuformatieren, Entstandardisierung und Standardisierung
CloudConnect - Arbeiten mit Suchfunktionen
CloudConnect - Arbeiten mit Parametern
CloudConnect - Arbeiten mit Datenbanken
CloudConnect - Arbeiten mit Daten im S3-Speicher
CloudConnect - Arbeiten mit Metadaten
CloudConnect - Arbeiten mit Archiven
CloudConnect - Parsen von XML-Dateien
Beim Laden neuer Daten über CloudConnect alte Daten löschen
Paging mit CloudConnect REST Connector
Unterstützung von SAP HANA in CloudConnect aktivieren
Copy of Unterstützung von SAP HANA in CloudConnect aktivieren
Analysieren des Datenverkehrs auf der Website mit Google Analytics
Datenanalysen von Facebook-Betrachtungen
Analysieren der Kundendaten aus Salesforce
Analysieren der Twitter-Suche
Erfassen weiterer Daten über Twitter Such-API
CloudConnect-Probleme
Häufige Fehler beim Erstellen Ihres ersten Projekts
Workspace fehlt nach Upgraden von CloudConnect
Fehler ‚Der JDBC-Treiber SAP HANA kann nicht erstellt werden'
Aktualisieren der Google Analytics-Verbindung in einem Projekt
Löschen von Einträgen aus Datensätzen
Workspace und Benutzerverwaltung
Workspaces und Workspace-Objekte verwalten
Workspace-ID finden
Workspace-Autorisierungstoken finden
Finden Sie heraus, auf welcher Datenbank-Engine ein Workspace läuft
Workspace-Namen finden
Workspace umbenennen
Workspace klonen
Workspace validieren
Workspace erstellen
Workspace wechseln
Workspace verlassen
Workspace löschen
Festlegen einer benutzerdefinierten Zeitzone für Ihren Workspace
Daten aus einem Workspace löschen
Zugriff auf die grauen Seiten für einen Workspace
Migrieren ausgewählter Objekte zwischen Workspaces
Erfassen von Objekt-Identifiern für Projektmetadaten
Berichte und Dashboards mit geplanten E-Mails teilen
Verschiedene Merkmale über Plattformeinstellungen konfigurieren
GoodData-Erweiterungstool für Chrome
Multi-Tenancy auf der GoodData-Plattform
Workspaces über Lebenszyklusverwaltung verwalten
LCM-Implementierung
Konfigurieren der LCM über API
Bausteine
Release-Brick
Rollout-Brick
Versorgungsbrick
Benutzerbaustein
Benutzerfilterbaustein
Arbeiten mit einem Baustein
Angeben komplexer Parameter
Arten von Eingabedatenquellen
Workspace-Daten und Datenzugriff verwalten
Verwalten von Datensätzen
Hinzufügen eines Tags zu einem Datensatz
Verwalten von Attributen
Hinzufügen eines Tags zu einem Attribut
Entdecken Sie Attributsbezeichnungen und Drill-Pfade
Suchen, wo ein Attribut verwendet wird
Festlegen der Attributswert-ID
Berechnete Attribute
Verwalten von Fakten
Hinzufügen eines Tags zu einem Fakt
Verwalten von Metriken
Hinzufügen eines Tags zu einer Metrik
Verwalten von Variablen
Workspace-Modell anzeigen
Verwendung von Tags
Erste Schritte mit Datenberechtigungen
Anwendungsfälle erweiterter Datenberechtigungen
Erstellen Sie Datengenehmigungen für rollierende Zeiträume
Berechtigung, Projektmetriken, Berichte und Dashboards zu bearbeiten
Zugriff auf Workspace-Objekte über API verwalten
Sichtbarkeit von Objekten verwalten - Objekte ausblenden und teilen
Mit Variablen die Datensichtbarkeit steuern
Numerische im Vergleich zu gefilterten Variablen
Numerische Variablen definieren
Einbinden von numerischen Variablen in Workspaces
Gefilterte Variablen definieren
Aktualisieren von Variablen mit REST API
Einbinden von gefilterten Variablen auf Berichtsebene
Einbinden von gefilterten Variablen auf Metrikebene
Element Masking
Nutzer in Workspaces verwalten
Zuordnen von Benutzern zu Domänen und Projekten
Benutzerrollen
Benutzerrollen-Berechtigungen
Benutzerdefinierte Benutzerrolle erstellen
Verwenden Sie den Nutzer-Brick, um Nutzer in Ihren Workspaces bereitzustellen
Profile von Workspace-Mitgliedern verwalten
Benutzer-ID suchen
Aktualisieren einer Benutzer-E-Mail-Adresse
Teilen von Dashboards mit mehreren Benutzern mittels Gruppen
Einladen von Benutzern mit vordefinierten Datenberechtigungen
Deaktivieren/Löschen von Benutzern
Standardzahlenformat für Ihr Benutzerkonto einrichten
GoodSuccess - GoodData Nutzungsanalyse
Erweitern Sie Ihre GoodData-Plattform
GoodData-Plattform - Übersicht
Tipps zur Leistungssteigerung
Workspace-Leistung
Berichtsberechnung
Messen der Berichtsausführungszeit
Data Warehouse-Leistung
Vermeiden Sie unnötige UPDATEs
Check for Invalid Views
Übernormalisieren Sie Ihr Schema nicht
Allgemeine Empfehlungen zur Entwicklung von Projektierungen
Netzwerk-Joins minimieren
Kriterien für die Projektierungssortierung auswählen
Behalten Sie die vorab definierte Projektion bei Abfragen
Tabellenabschnitte nutzen
Verwendung von Kontrolltabellen
Verwendung der Lauflängenkodierung (RLE)
Verwendung des Stichworts EXPLAIN
Schreiben großer Datenaktualisierungen direkt auf die Festplatte
Über ein Leistungsproblem berichten
Plattformgrenzen
Ihre GoodData-Domäne
GoodData-Datencenter
Datensicherung
Ereignisse der Audit-Plattform
Token-Arten bei GoodData
Ablauf der SST-Sitzung
Integration von GoodData in Ihre Anwendung
Domäne mit White Label versehen
Konfigurieren benutzerdefinierter Titelzeilen und Fußzeilen zum Exportieren von Berichten im PDF-Format
Konfigurieren von DKIM für ausgehende E-Mails
Standarddomänen und benutzerdefinierte Domänen
E-Mail-Vorlagen
Häufig gestellte Fragen zum White Labeling
White Labels - Was Sie damit versehen können
White Labeling für eine neue Domäne
White Labeling für eine bestehende Domäne
Richten Sie ein CNAME ein und erwerben Sie ein TLS-Zertifikat
Domänenadministrator wählen
Rollout abstimmen
Konfiguration der White Labeling-Domäne
Konfigurieren von Titelzeilen zum Exportieren von Berichten im XLSX-Format
Einbetten von GoodData-Elementen in Ihre Anwendungen
Funktionsverfügbarkeit im eingebetteten und im nicht eingebetteten Modus
Einbetten von Dashboards und Berichten
Eingebetteten Bericht mit URL-Parameter filtern
Eingebettetes Dashboard mit URL-Parameter filtern
Konfiguration eines eingebetteten Dashboards zur Anzeige einer bestimmten Registerkarte
Titelzeile eines eingebetteten Dashboards ausblenden
Ein Dashboard in Salesforce einbetten
Eingebettete Dashboard- und Berichts-API - Ereignisse und Methoden
Einbetten von Parametern
Eingebettete Dashboard-Ereignisse
Eingebettete Dashboard-Methoden
Dashboard-Verwendung mit externem Nachverfolgungstool nachverfolgen
Anforderungen von Verfeinerungsberichten über Ihre Webanwendung bearbeiten
Analytical Designer einbetten
Kommunikation mit eingebettetem Analytical Designer
Einbetten eines KPI-Dashboards
Kommunikation mit eingebetteten KPI-Dashboards
Einbetten von Codeformaten
Angleichen von Sitzungen zwischen Ihrer Anwendung und GoodData
Einrichten von Ereignissen zum Verfeinern im eingebetteten Analytical Designer und in KPI-Dashboards
Direkt im eingebetten Analytical Designer gespeicherte Insight-Events von Benutzern aufzeichnen
Stichproben-HTML für Drill-Ereignisse
Benutzer-Authentifizierung und SSO einrichten
Single Sign-On - Übersicht
SAML SSO bei GoodData
Einrichten von Fluig Single Sign-On
Einrichten von Okta Single Sign-On
Einrichtung von Auth0 Single Sign-On
Identitäts-Provider mit Salesforce konfigurieren
Konfigurieren von Windows Server mit AD FS für GoodData SAML SSO
Verwenden Sie SAML Just-in-Time Nutzerversorgung in einer SAML SSO-Umgebung
System zur domänenübergreifenden Identitätsmanagement-Benutzerbereitstellung in einer SAML-SSO-Umgebung verwenden
PGP Single Sign-On bei GoodData
Generieren des Paares Public Key-Privater Schlüssel
Metadatenlokalisierung
API-Referenz
API Version Information und Changelog
GoodData-SDK
GoodData Java HTTP Client
Plattform-Sicherheit und Compliance
Security Shield
Enterprise Shield
HIPAA Add-On
GDPR Add-On
Unterstützte TLS Sicherheitsprotokolle und Ziffern
Identitätswechselfunktion
Kennwortrichtlinie
Firewall
GoodData Glossar
Zusätzliche Ressourcen
Veraltete Funktionen!
Amazon S3 Credentials API Resource
Hochladen von Daten mit der API-Ressource
IP-Adressen zum Laden von Daten
Interaktive Explorer
Java SDK Versionen 2.32.0 und älter
JDBC Driver Version 3.0.2 bis 3.1.2
Herkömmliche Salesforce SSO-Methode
PGP SSO GET Methode
Öffentlicher PGP-SSO-Schlüssel
Projektvorlagen
SFTP zum Laden von Daten auf die GoodData-Plattform
SHA-1 Signatur für SAML
Unterstützung für TLS Version 1.0 und 1.1
Visualisierungsobjekttyp in Projektmetadaten
Downloads
Fehlersuche
Data Warehouse (ADS) - Probleme
Fehlersuche bei fehlgeschlagenen Plänen
Probleme mit geplanten E-Mails:
Berichtsprobleme
Verfügbarer Bereich zu klein
Fehlersuche beim Einbetten
Versionshinweise
You are viewing our older product's guide. Click
here
for the documentation of GoodData Cloud, our latest and most advanced product.
Verwenden Sie den CSV-Uploader zur Ad-hoc Analyse
Diese Seite steht nur in englischer Sprache zur Verfügung.
Aktualisieren der aus einer Datei hochgeladenen Daten