Freigeben über


Moderne Data Warehouses für kleine oder mittelständische Unternehmen

Azure Data Lake
Azure SQL-Datenbank
Microsoft Fabric

In diesem Artikel wird beschrieben, wie kleine oder mittelständische Unternehmen ältere Datenspeicher innerhalb ihrer aktuellen Budgets und Fähigkeiten migrieren und modernisieren können. Es zeigt, wie Sie big Data-Tools und -Funktionen schrittweise untersuchen. Diese Data Warehouse-Lösungen sind in Azure Machine Learning, Foundry Tools, Microsoft Power Platform, Dynamics 365 und andere Microsoft-Technologien integriert. Diese Lösungen bieten einen ersten Einstiegspunkt zu Microsoft Fabric, bei dem es sich um eine verwaltete Software as a Service (SaaS)-Datenplattform handelt, die bei wachsenden Anforderungen erweitert werden kann.

Dieses Muster unterstützt kleine oder mittelständische Unternehmen, die die folgenden Merkmale aufweisen:

  • Verwenden sie lokale SQL Server für Data Warehouse-Lösungen unter 1 Terabyte (TB)

  • Verwenden von herkömmlichen SQL Server-Tools wie SQL Server Integration Services (SSIS), SQL Server Analysis Services (SSAS), SQL Server Reporting Services (SSRS), allgemeinen SQL-gespeicherten Prozeduren und SQL Server-Agent-Aufträgen

  • Verwendung externer Tools zum Extrahieren, Transformieren und Laden (ETL) sowie zum Extrahieren, Laden und Transformieren (ELT)

  • Verlassen Sie sich auf die Momentaufnahmereplikation für die Datensynchronisierung

  • Batchbasierte Vorgänge ausführen und keine Echtzeitberichte benötigen

Vereinfachte Architektur

Diagramm, das eine vereinfachte kleine oder mittlere Unternehmensarchitektur veranschaulicht.

Diagramm, das einen Datenfluss zur Modernisierung der Datenhaltung für kleine oder mittlere Unternehmen zeigt. Auf der linken Seite verbindet sich eine ältere Data Warehouse-Lösung über einen Datenpipelinepfeil mit einem gepunkteten Feld mit der Bezeichnung "Store" und "Process". Dieses Feld enthält die Azure SQL-Datenbank und die Azure SQL Managed Instance und stellt eine Verbindung zu einem zweiten gepunkteten Feld mit der Bezeichnung "Verarbeiten und Präsentieren" her. Dieses Feld enthält Fabric und stellt eine Verbindung mit Power BI bereit.

Laden Sie eine Visio-Datei dieser Architektur herunter.

Eine konzeptionelle Modernisierungschance umfasst den Übergang einer legacy Data Warehouse-Lösung zu einer Kombination aus Azure SQL-Datenbank, azure SQL Managed Instance und Fabric. Diese Strategie stellt die umfassende Kompatibilität mit herkömmlichen SQL Server- und SQL-Clienttools wie SQL Server Management Studio (SSMS) sicher. Darüber hinaus bietet es Optionen für das Rehosting vorhandener Prozesse und erfordert nur minimalen Weiterbildungsaufwand für das Supportteam. Diese Lösung bietet einen ersten Schritt zur umfassenden Modernisierung. Wenn Ihr Data Warehouse wächst und Ihr Team Know-how erhält, können Sie die SaaS-Lagerhaltung auf Fabric vollständig nutzen oder einen Lakehouse-Ansatz einführen.

Ältere Data Warehouses für kleine oder mittelständische Unternehmen können mehrere Arten von Daten enthalten:

  • Unstrukturierte Daten wie Dokumente und Grafiken

  • Semistrukturierte Daten wie Protokolle, kommagetrennte Werte (CSV), JSON- und XML-Dateien

  • Strukturierte relationale Daten, einschließlich Datenbanken, die gespeicherte Prozeduren für ETL- und ELT-Aktivitäten verwenden

Aufbau

Diagramm, das eine erweiterte Architektur veranschaulicht, die auf zukünftige Anforderungen ausgelegt ist.

Diagramm, das eine Datenflussarchitektur von links nach rechts mit mehreren Datenquellen, Verarbeitungsphasen und Verbrauchsendpunkten zeigt. Auf der linken Seite werden drei Datenquellenkategorien angezeigt: Datenstromquellen, Dynamics 365 und unstrukturierte Daten, semistrukturierte Daten und relationale Datenbanken. Vier gepunktete Abschnitte gehen von links nach rechts. Der erste Abschnitt trägt die Bezeichnung "Laden und Ingestieren" und enthält Azure Event Hubs und eine Azure Data Factory-Pipeline. Der zweite Abschnitt ist als Speicher bezeichnet und enthält Azure Data Lake Storage und SQL-Datenbank. Der dritte Abschnitt ist bezeichnet Prozess und Verarbeitung und enthält Fabric Real-Time Intelligence und OneLake. Der vierte Abschnitt ist mit Zusammenarbeit und Nutzung gekennzeichnet und enthält den SQL-Analyseendpunkt, den Apache Spark-Pool und Pipelines. Die dritten und vierten Abschnitte befinden sich in einer Fabric-Umgebung mit der Bezeichnung Fabric-Kapazität, Premium-Kapazität oder Premium pro Benutzer. In Schritt 3 verweisen Streamingquellen auf Event Hubs. Unstrukturierte Daten, semistrukturierte Daten und relationale Datenbanken verweisen auf die Data Factory-Pipeline. Ein Pfeil zeigt von Event Hubs auf Real-Time Intelligence. Pfeile aus Event Hubs, Dynamics 365, die als Schritt 2 bezeichnet werden, und die Data Factory-Pipeline verweisen auf Data Lake Storage. In Schritt 1 verweist ein Pfeil aus der Data Factory-Pipeline auf die SQL-Datenbank. In Schritt 4 wird Data Lake Storage mit OneLake verknüpft. In Schritt 5 enthält eine orange gepunktete Box mit der Bezeichnung "serverlose Analyse" "Data Lake Storage", "OneLake" und den SQL-Analyseendpunkt. Ganz rechts werden in einem Abschnitt "Nutzen und Bedienen" sieben Endpunkte aufgelistet: Power Apps, Dynamics 365, Dynamics CRM, Power BI, Funktionen-Apps, Azure Logic Apps und Web-Apps. Pfeile zeigen von jeder Komponente im Abschnitt "Zusammenarbeit und Nutzung" zu diesen Endpunkten.

Laden Sie eine Visio-Datei dieser Architektur herunter.

Datenfluss

Der folgende Datenfluss entspricht dem vorherigen Diagramm:

  1. Fabric-Datenpipelinen oder Azure Data Factory-Pipelines nehmen Transaktionsdaten in die Data Warehouse-Lösung ein.

    • Die Pipelines koordinieren den Fluss der migrierten oder teilweise umgestalteten Legacydatenbanken und SSIS-Pakete in SQL-Datenbank oder SQL Managed Instance. Dieser neu gehostete Ansatz bietet einen Übergang von einer lokalen SQL-Lösung zu einer zukünftigen Fabric SaaS-Umgebung. Sie können Datenbanken nach der ersten Migration inkrementell modernisieren.

    • Die Pipelines können unstrukturierte, semistrukturierte und strukturierte Daten in Azure Data Lake Storage verschieben, um sie zentral zu speichern und eine Quellübergreifende Analyse zu ermöglichen. Verwenden Sie diesen Ansatz, wenn das Kombinieren von Daten aus mehreren Quellen mehr geschäftlichen Nutzen bietet als das Migrieren der Daten auf eine neue Plattform.

  2. Verwenden Sie Dynamics 365-Daten, um zentralisierte Business Intelligence-Dashboards (BI) mithilfe von Fabric Serverless Analytics-Tools für angereicherte Datasets zu erstellen. Sie können Dynamics 365-Daten in Data Lake Storage importieren oder Ihre Dataverse-Umgebung direkt an Fabric verknüpfen, indem Sie eine Dynamics 365-Verknüpfung in OneLake verwenden. Sie können Analyseergebnisse zurück in Dynamics 365 schreiben oder die Analyse in Fabric fortsetzen.

  3. Azure Event Hubs oder andere Streaminglösungen streamen Echtzeitdaten in das System. Fabric Real-Time Intelligence bietet sofortige Analysen zur Unterstützung von Echtzeitdashboards.

  4. Tastenkombinationen für Data Lake Storage bringen die Daten in Fabric OneLake zur Analyse, Speicherung und Berichterstellung. Dieser Ansatz analysiert Daten, ohne sie zu verschieben, und stellt sie nachgeschalteten Verbrauchern zur Verfügung.

  5. Fabric bietet serverlose Analysetools bei Bedarf, z. B. den SQL-Analyseendpunkt und Apache Spark, ohne dass bereitgestellte Ressourcen erforderlich sind. Diese Tools unterstützen die folgenden Aktivitäten:

    • ETL- und ELT-Aktivitäten für OneLake-Daten

    • Bereitstellung der Goldschicht der Medallion-Architektur für Power BI-Berichte über die DirectLake-Funktion

    • Improvisierte Datenanalysen in T-SQL oder Python

    • Frühes Prototyping für Data-Warehouse-Entitäten

Fabric integriert sich mit den Nutzern Ihrer mehrquellen Datasets, einschließlich Power BI Front-End-Berichte, Machine Learning, Power Apps, Azure Logic Apps, Azure Functions und Azure App Service Web Apps.

Komponenten

  • Fabric ist ein Analysedienst, der Datentechnik, Data Warehouse, Data Science und Echtzeitdaten und BI-Funktionen kombiniert. In dieser Architektur bieten Fabric-Datentechnik-Funktionen eine kollaborative Plattform für Dateningenieure, Data Scientists, Datenanalysten und BI-Experten. Fabric verwendet serverlose Computemodule, um Erkenntnisse zu generieren, die die Entscheidungsfindung im Unternehmen unterstützen.

  • SQL-Datenbank und SQL Managed Instance sind cloudbasierte relationale Datenbankdienste. In dieser Architektur hosten diese Dienste das Enterprise Data Warehouse und führen ETL- und ELT-Aktivitäten mithilfe gespeicherter Prozeduren oder externer Pakete (SSIS) aus. SQL-Datenbank und SQL Managed Instance sind Plattform-as-a-Service (PaaS)-Umgebungen, die Sie verwenden können, um hohe Anforderungen an Verfügbarkeit und Notfallwiederherstellung zu erfüllen. Wählen Sie eine SKU aus, die Ihren Anforderungen entspricht. Weitere Informationen finden Sie unter Hohe Verfügbarkeit für SQL-Datenbank und hohe Verfügbarkeit für sql Managed Instance.

  • Event Hubs ist eine Echtzeitdatenstreamingplattform und ein Ereignisaufnahmedienst. In dieser Architektur integriert sich Event Hubs mit Azure-Datendiensten, um Streaming-Daten aus verschiedenen Quellen in Data Lake Storage zur Analyse und Berichterstellung aufzunehmen. Event Hubs können daten auch direkt an Real-Time Intelligence streamen.

  • Data Lake Storage ist ein zentrales cloudbasiertes Repository, das strukturierte und unstrukturierte Daten speichert. In dieser Architektur kann Data Lake Storage archivierte Streamingdaten und Kopien von Dynamics 365-Daten speichern.

Alternativen

  • Sie können Azure IoT Hub verwenden, um Event Hubs zu ersetzen oder zu ergänzen. Wählen Sie Ihre Lösung basierend auf der Quelle Ihrer Streamingdaten und abhängig davon aus, ob Sie Funktionen zum Klonen und zur bidirektionalen Kommunikation mit den Berichterstellungsgeräten benötigen.

  • Sie können Fabric-Datenpipelinen anstelle von Data Factory-Pipelines für die Datenintegration verwenden. Ihre Entscheidung hängt von mehreren Faktoren ab. Weitere Informationen finden Sie unter "Unterschiede zwischen Azure Data Factory" und "Fabric Data Factory".

  • Sie können Fabric Data Warehouse anstelle von SQL-Datenbank oder SQL Managed Instance verwenden, um Unternehmensdaten zu speichern. Dieser Artikel priorisiert die Markteinführungszeit (TTM) für Kunden, die ihre Datenlager modernisieren möchten. Weitere Informationen finden Sie unter Fabric-Datenspeicheroptionen.

Szenariodetails

Kleine oder mittelständische Unternehmen, die lokale Data Warehouses für die Cloud modernisieren, können zwischen zwei Ansätzen wählen. Sie können Big Data-Tools für zukünftige Skalierbarkeit einführen oder herkömmliche SQL-basierte Lösungen für Kosteneffizienz und einen vorhersehbaren Übergang verwenden. Mit einem Hybridansatz können Sie vorhandene Daten migrieren, während Sie moderne Tools und KI-Funktionen verwenden. Sie können SQL-basierte Datenquellen in der Cloud ausführen und inkrementell modernisieren.

In diesem Artikel wird beschrieben, wie kleine oder mittelständische Unternehmen ältere Datenspeicher modernisieren und Big Data-Tools einführen können, während sie in vorhandenen Budgets und Qualifikationsgruppen bleiben. Diese Azure Data Warehouse-Lösungen sind in Azure- und Microsoft-Dienste integriert, einschließlich Foundry Tools, Dynamics 365 und Power Platform.

Mögliche Anwendungsfälle

  • Migration eines herkömmlichen lokalen relationalen Data Warehouse mit weniger als 1 TB, das SSIS-Pakete zum Orchestrieren gespeicherter Prozeduren verwendet.

  • Kombinieren Sie Dynamics 365- oder Dataverse-Daten mit Batch- und Echtzeitdaten aus Data Lake Storage.

  • Verwenden Sie innovative Techniken, um mit zentralisierten Data Lake Storage-Daten zu interagieren. Zu diesen Techniken gehören serverlose Analysen, Knowledge Mining, Datenfusion zwischen Domänen und Self-Service Data Exploration mithilfe von Copilot in Fabric.

  • Ermöglichen Sie E-Commerce-Unternehmen die Einführung von Cloud Data Warehouse zur betrieblichen Optimierung.

Wir empfehlen diese Lösung für die folgenden Szenarien nicht:

  • Greenfield Data Warehouse-Bereitstellungen. Informationen zu diesem Szenario finden Sie unter Greenfield Lakehouse auf Fabric.

  • Lokale Data Warehouses, die 1 TB oder größer sind oder diese Größe innerhalb eines Jahres erreichen. Die meisten Organisationen übernehmen spezielle Data Warehouse-Lösungen für Data Warehouses in dieser Größe. Informationen zu diesen Szenarien finden Sie unter Alternativen zum Replatforming.

Überlegungen

Diese Überlegungen bilden die Säulen des Azure Well-Architected Framework, einer Reihe von Leitprinzipien, die Sie zur Verbesserung der Qualität eines Workloads verwenden können. Weitere Informationen finden Sie unter Well-Architected Framework.

Zuverlässigkeit

Zuverlässigkeit trägt dazu bei, dass Ihre Anwendung die Verpflichtungen, die Sie gegenüber Ihren Kunden eingehen, erfüllen kann. Weitere Informationen finden Sie unter Erstellen einer Checkliste zur Überprüfung der Zuverlässigkeit.

Sie und Microsoft teilen die Verantwortung für die Zuverlässigkeit der meisten Azure-Dienste. Microsoft bietet Funktionen zur Unterstützung von Resilienz und Wiederherstellung. Sie müssen verstehen, wie diese Funktionen in den einzelnen Diensten funktionieren, die Sie verwenden, und wählen Sie die Konfigurationen aus, die Ihren Geschäftszielen und Uptime-Zielen entsprechen. Überprüfen Sie die dienstspezifische Dokumentation, um Konfigurationen auszuwählen, die Ihren Zielen für Geschäftskontinuität und Notfallwiederherstellung entsprechen.

Kostenoptimierung

Die Kostenoptimierung konzentriert sich auf Möglichkeiten, unnötige Ausgaben zu reduzieren und die betriebliche Effizienz zu verbessern. Weitere Informationen finden Sie in der Prüfliste für die Entwurfsüberprüfung für die Kostenoptimierung.

  • Mit dem Azure-Preisrechner können Sie Werte ändern, um zu verstehen, wie sich Ihre spezifischen Anforderungen auf Kosten auswirken. Sehen Sie sich ein Preisbeispiel für ein Szenario für ein kleines oder mittleres Business Data Warehouse an.

  • Die SQL-Datenbankpreise hängen von der Computeebene, der Dienstebene, der Anzahl der vCores und datenbanktransaktionseinheiten ab. Im Preisbeispiel wird eine einzelne Datenbank mit bereitgestelltem Compute und acht vCores verwendet, um gespeicherte Prozeduren in der SQL-Datenbank auszuführen. Sie können Kosten reduzieren, indem Sie reservierte Kapazität und Azure-Hybridvorteile verwenden.

  • Die Preise für Data Lake Storage hängen von Speichervolumen und Datenzugriffshäufigkeit ab. Das Preisbeispiel umfasst 1 TB Datenspeicher und damit verbundene Transaktionskosten. Die Größe von 1 TB stellt die Größe des Datensees dar, nicht die ursprüngliche Ältere Datenbankgröße. Data Lake Storage sind zusätzliche Modernisierungskosten, die über die der Legacydatenbank hinausgehen.

  • Die Fabric-Preise hängen vom Fabric F-Kapazitätsmodell oder vom Premium-Modell pro Person ab. Serverlose Funktionen verbrauchen CPU und Arbeitsspeicher von der erworbenen dedizierten Kapazität. Nach der Modernisierung funktionieren Ihre vorhandenen Berichte weiterhin, indem sie eine Verbindung mit dem neuen Data Warehouse (SQL-Datenbank oder SQL Managed Instance) mit Ihrer vorhandenen Lizenzierung herstellen. Das Preisbeispiel umfasst die F2-SKU zur Darstellung der zukünftigen BI-Erweiterung durch Self-Service-Datenvorbereitung, Datamarts, Real-Time Intelligence und KI-unterstützte Workflows. Die F2-SKU mit einjähriger Reservierung bietet einen kostengünstigen Einstiegspunkt. Wenn Sie derzeit Power BI Premium verwenden oder zu F64 migriert haben, benötigen Sie möglicherweise keine zusätzliche F-Kapazität.

  • Die Preise für Event Hubs hängen von der ausgewählten Stufe, bereitgestellten Durchsatzeinheiten (PTUs) und dem Datenverkehrsvolumen ab. Im Preisbeispiel wird davon ausgegangen, dass eine Durchsatzeinheit auf der Standardebene mehr als eine Million Ereignisse pro Monat verarbeitet. Event Hubs stellen eine zusätzliche Modernisierungskosten dar, wenn Sie Ihrer Lösung Echtzeitstreamingfunktionen hinzufügen.

Beitragende

Microsoft verwaltet diesen Artikel. Die folgenden Mitwirkenden haben diesen Artikel geschrieben.

Hauptautor:

Anderer Mitwirkender:

Um nicht-öffentliche LinkedIn-Profile anzuzeigen, melden Sie sich bei LinkedIn an.

Nächste Schritte