Buinsoft
Zurück zum Blog
DataDWH

Was ist eine Data-Warehouse-Architektur? DWA

B
Buinsoft TeamAutor
Dec 4, 2024
Was ist eine Data-Warehouse-Architektur? DWA

Data-Warehouse-Architektur

Bevor wir uns mit der Architektur eines Data Warehouse befassen, ist es wichtig zu verstehen, was ein Data Warehouse überhaupt ist. Bill Inmon, der weithin als „Vater des Data Warehousing“ gilt, definiert es als: „Eine themenorientierte, integrierte, zeitvariable und nichtflüchtige Datensammlung zur Unterstützung der Managemententscheidungen.“ Diese prägnante Definition erfasst den Kern des Data Warehousing und hat weitreichende Implikationen in der Datenwelt. Analysieren wir sie genauer.

Hauptmerkmale eines Data Warehouse

  • Fachorientiert
Ein Data Warehouse organisiert Daten anhand zentraler Themen wie Umsatz, Kunden oder Lagerbestand anstatt anhand einzelner Quellsysteme. Dies gewährleistet eine einheitliche und ganzheitliche Sicht auf jedes Thema und ermöglicht so bessere Analysen und Berichte. Beispielsweise können alle Umsatzdaten, unabhängig von ihrer Quelle, logisch gruppiert werden, sodass Benutzer Umsatztrends umfassend untersuchen können.
  • Integriert
Daten aus verschiedenen Quellsystemen wie CRM-, ERP- oder E-Commerce-Plattformen werden im Data Warehouse standardisiert und abgeglichen. Beispielsweise gewährleistet das Data Warehouse Konsistenz, indem es unterschiedliche Formate wie „California“ und „CA“ vereinheitlicht.
  • Zeitvariante
Im Gegensatz zu transaktionalen Datenbanken, die sich auf aktuelle Daten konzentrieren, speichert ein Data Warehouse historische Daten über lange Zeiträume. Dies ermöglicht es Unternehmen, Trends zu analysieren, Ergebnisse vorherzusagen und fortgeschrittene Analysen wie KI/ML-Modellierung durchzuführen.
  • Nicht flüchtig
Einmal im Data Warehouse gespeicherte Daten werden weder überschrieben noch gelöscht. Diese Stabilität ermöglicht konsistente und zuverlässige Analysen. Vorhandene Daten bleiben unverändert, während neue Daten hinzugefügt werden, wodurch die historische Integrität gewahrt bleibt.

Die Rolle der Data-Warehouse-Architektur

Die Architektur eines Data Warehouse bildet das strukturelle Rückgrat für die Konsolidierung, Speicherung und Analyse großer Datenmengen. Sie integriert heterogene Systeme in ein kohärentes Framework und ermöglicht datengestützte Entscheidungen. Die Architektur bietet ein agiles Design, das Business Intelligence, Analysen und Self-Service-Reporting unterstützt. Jede Organisation verfügt – ob bewusst geplant oder nicht – über eine Data-Warehouse-Architektur. Eine ineffiziente Architektur kann jedoch Leistung, Skalierbarkeit und Datenzugriff beeinträchtigen.

Kernschichten der Data-Warehouse-Architektur

Ein gut konzipiertes Data Warehouse besteht aus mehreren Funktionsschichten, die jeweils einem bestimmten Zweck dienen. Die gängigsten Schichten sind:
  • Quellschicht: Dies ist der Einstiegspunkt, an dem Daten aus verschiedenen Systemen (Systems of Record, SOR) erfasst werden. Beispiele hierfür sind Kassensysteme, CRM-Plattformen und ERP-Systeme. Datenformate und Erfassungsmethoden können je nach Quelle stark variieren.
  • Die Staging- Schicht dient als temporäres Repository für Rohdaten vor der Transformation. In dieser Phase werden keine Geschäftslogik oder Transformationen angewendet, um die Integrität der Originaldaten zu gewährleisten. Es ist entscheidend, dass Staging-Daten erst nach Bereinigung, Modellierung und Validierung für Analysen verwendet werden.
  • Data-Warehouse-Ebene : Dies ist der zentrale Speicherort, an dem Daten themenbezogen, integriert, zeitvariant und nichtflüchtig werden. Physische Schemata, Tabellen, Sichten und Prozeduren befinden sich hier, um effiziente Abfragen und Datenabrufe zu ermöglichen.
  • Die Nutzungsschicht , auch Analyseschicht genannt, dient der Datenmodellierung für Endbenutzer-Tools. Business-Analysten, Data Scientists und Reporting-Tools nutzen diese Schicht zur Visualisierung, Exploration und für fortgeschrittene Analysen.

Methoden zur Datenerfassung und -transformation

Stapelverarbeitung

Die Daten werden in großen Mengen in festgelegten Abständen verarbeitet. Obwohl die Stapelverarbeitung zuverlässig und weit verbreitet ist, kann sie zu Verzögerungen führen und erhebliche Rechenressourcen erfordern.

Streaming-Daten

Streaming verarbeitet Daten in Echtzeit oder nahezu Echtzeit, sobald sie generiert werden. Es eignet sich ideal für Szenarien wie Echtzeitanalysen oder Überwachungssysteme. Im Gegensatz zur Stapelverarbeitung bietet Streaming sofortige Einblicke, kann aber komplexer in der Implementierung sein.

Änderungsdatenerfassung (CDC)

CDC verfolgt Änderungen in Quellsystemen, wie z. B. neu erstellte oder aktualisierte Datensätze, und übernimmt nur die geänderten Daten. Dieses Verfahren gewährleistet eine effiziente Datensynchronisierung und minimiert redundante Verarbeitung.

Datenaustausch

Moderne Plattformen wie Snowflake ermöglichen den Austausch von Daten ohne Duplikate. Die Echtzeit-Freigabe unterstützt skalierbare und kollaborative Analysen über verteilte Teams oder Organisationen hinweg.

Architektonische Komponenten eines Data Warehouse

ETL- und ELT-Prozesse

ETL (Extrahieren, Transformieren, Laden)

Die Daten werden extrahiert, an die Geschäftslogik angepasst und anschließend in das Zielsystem geladen. Obwohl ETL-Prozesse zuverlässig sind, können sie hinsichtlich Leistung und Skalierbarkeit Herausforderungen begegnen.

ELT (Extrahieren, Laden, Transformieren)

Der moderne Ansatz lädt Rohdaten zunächst in die Staging-Schicht und transformiert sie anschließend. Cloudbasierte Plattformen wie Snowflake und Databricks nutzen ELT für bessere Skalierbarkeit und Leistung.

Metadatendienste

Metadaten, oder „Daten über Daten“, liefern Kontext und Herkunftsnachweis für Data-Warehouse-Daten. Sie ermöglichen eine effiziente Datenmodellierung, Katalogisierung und Überwachung und stellen sicher, dass die Benutzer die Eigenschaften und die Historie der Daten verstehen.

Ausführungs-Engines

Ausführungs-Engines verarbeiten Abfragen und Transformationen, typischerweise mithilfe von SQL oder proprietären Sprachen. Moderne Plattformen unterstützen Integrationen mit Python, R und Machine-Learning-Tools, um fortgeschrittene Analysen zu ermöglichen.

Lagerdienstleistungen

Speichersysteme beherbergen alle Daten: Rohdaten, bereitgestellte Daten und modellierte Daten, und gewährleisten so eine effiziente Partitionierung, Replikation, Komprimierung und Lebenszyklusverwaltung. Cloud-Plattformen wie Amazon Redshift, Google BigQuery und Snowflake optimieren die Speicherung hinsichtlich Skalierbarkeit und Kosteneffizienz.

Governance und Sicherheit

Robuste Governance- und Sicherheitsprotokolle, einschließlich Authentifizierung, rollenbasierter Zugriffskontrolle (RBAC), Verschlüsselung und Datenmaskierung, sind entscheidend für den Schutz sensibler Informationen.

Wie geht es weiter?

Das Verständnis dieser grundlegenden Schichten und Komponenten ist der erste Schritt zur Bewertung oder zum Entwurf Ihrer Data-Warehouse-Architektur. Wichtige Fragen, die Sie berücksichtigen sollten, sind:
  • Werden Sie Stapelverarbeitung, Streaming oder CDC für die Datenerfassung verwenden?
  • Werden Ihre Daten vor der Transformation bereitgestellt?
  • Sollten Sie für eine bessere Performance von ETL auf ELT umsteigen?
  • Welche Ausführungs-Engines erfüllen Ihre Analyseanforderungen am besten?
  • Sind Ihre Governance- und Sicherheitsmaßnahmen auf allen Ebenen umfassend?
Bleiben Sie dran für weitere Einblicke in mehrschichtige Data-Warehouse-Architekturen. Wir zeigen Ihnen, wie Sie Ihre Architektur an die Anforderungen Ihres Unternehmens anpassen und Self-Service-Analysen fördern. Mit diesen Aspekten sind Sie bestens gerüstet, ein Data Warehouse zu entwerfen, das skalierbare, zuverlässige und umsetzbare Erkenntnisse liefert.