Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
In diesem Artikel wird beschrieben, wie kleine oder mittelständische Unternehmen ältere Datenspeicher innerhalb ihrer aktuellen Budgets und Fähigkeiten migrieren und modernisieren können. Es zeigt, wie Sie big Data-Tools und -Funktionen schrittweise untersuchen. Diese Data Warehouse-Lösungen sind in Azure Machine Learning, Foundry Tools, Microsoft Power Platform, Dynamics 365 und andere Microsoft-Technologien integriert. Diese Lösungen bieten einen ersten Einstiegspunkt zu Microsoft Fabric, bei dem es sich um eine verwaltete Software as a Service (SaaS)-Datenplattform handelt, die bei wachsenden Anforderungen erweitert werden kann.
Dieses Muster unterstützt kleine oder mittelständische Unternehmen, die die folgenden Merkmale aufweisen:
Verwenden sie lokale SQL Server für Data Warehouse-Lösungen unter 1 Terabyte (TB)
Verwenden von herkömmlichen SQL Server-Tools wie SQL Server Integration Services (SSIS), SQL Server Analysis Services (SSAS), SQL Server Reporting Services (SSRS), allgemeinen SQL-gespeicherten Prozeduren und SQL Server-Agent-Aufträgen
Verwendung externer Tools zum Extrahieren, Transformieren und Laden (ETL) sowie zum Extrahieren, Laden und Transformieren (ELT)
Verlassen Sie sich auf die Momentaufnahmereplikation für die Datensynchronisierung
Batchbasierte Vorgänge ausführen und keine Echtzeitberichte benötigen
Vereinfachte Architektur
Diagramm, das einen Datenfluss zur Modernisierung der Datenhaltung für kleine oder mittlere Unternehmen zeigt. Auf der linken Seite verbindet sich eine ältere Data Warehouse-Lösung über einen Datenpipelinepfeil mit einem gepunkteten Feld mit der Bezeichnung "Store" und "Process". Dieses Feld enthält die Azure SQL-Datenbank und die Azure SQL Managed Instance und stellt eine Verbindung zu einem zweiten gepunkteten Feld mit der Bezeichnung "Verarbeiten und Präsentieren" her. Dieses Feld enthält Fabric und stellt eine Verbindung mit Power BI bereit.
Laden Sie eine Visio-Datei dieser Architektur herunter.
Eine konzeptionelle Modernisierungschance umfasst den Übergang einer legacy Data Warehouse-Lösung zu einer Kombination aus Azure SQL-Datenbank, azure SQL Managed Instance und Fabric. Diese Strategie stellt die umfassende Kompatibilität mit herkömmlichen SQL Server- und SQL-Clienttools wie SQL Server Management Studio (SSMS) sicher. Darüber hinaus bietet es Optionen für das Rehosting vorhandener Prozesse und erfordert nur minimalen Weiterbildungsaufwand für das Supportteam. Diese Lösung bietet einen ersten Schritt zur umfassenden Modernisierung. Wenn Ihr Data Warehouse wächst und Ihr Team Know-how erhält, können Sie die SaaS-Lagerhaltung auf Fabric vollständig nutzen oder einen Lakehouse-Ansatz einführen.
Ältere Data Warehouses für kleine oder mittelständische Unternehmen können mehrere Arten von Daten enthalten:
Unstrukturierte Daten wie Dokumente und Grafiken
Semistrukturierte Daten wie Protokolle, kommagetrennte Werte (CSV), JSON- und XML-Dateien
Strukturierte relationale Daten, einschließlich Datenbanken, die gespeicherte Prozeduren für ETL- und ELT-Aktivitäten verwenden
Aufbau
Laden Sie eine Visio-Datei dieser Architektur herunter.
Datenfluss
Der folgende Datenfluss entspricht dem vorherigen Diagramm:
Fabric-Datenpipelinen oder Azure Data Factory-Pipelines nehmen Transaktionsdaten in die Data Warehouse-Lösung ein.
Die Pipelines koordinieren den Fluss der migrierten oder teilweise umgestalteten Legacydatenbanken und SSIS-Pakete in SQL-Datenbank oder SQL Managed Instance. Dieser neu gehostete Ansatz bietet einen Übergang von einer lokalen SQL-Lösung zu einer zukünftigen Fabric SaaS-Umgebung. Sie können Datenbanken nach der ersten Migration inkrementell modernisieren.
Die Pipelines können unstrukturierte, semistrukturierte und strukturierte Daten in Azure Data Lake Storage verschieben, um sie zentral zu speichern und eine Quellübergreifende Analyse zu ermöglichen. Verwenden Sie diesen Ansatz, wenn das Kombinieren von Daten aus mehreren Quellen mehr geschäftlichen Nutzen bietet als das Migrieren der Daten auf eine neue Plattform.
Verwenden Sie Dynamics 365-Daten, um zentralisierte Business Intelligence-Dashboards (BI) mithilfe von Fabric Serverless Analytics-Tools für angereicherte Datasets zu erstellen. Sie können Dynamics 365-Daten in Data Lake Storage importieren oder Ihre Dataverse-Umgebung direkt an Fabric verknüpfen, indem Sie eine Dynamics 365-Verknüpfung in OneLake verwenden. Sie können Analyseergebnisse zurück in Dynamics 365 schreiben oder die Analyse in Fabric fortsetzen.
Azure Event Hubs oder andere Streaminglösungen streamen Echtzeitdaten in das System. Fabric Real-Time Intelligence bietet sofortige Analysen zur Unterstützung von Echtzeitdashboards.
Tastenkombinationen für Data Lake Storage bringen die Daten in Fabric OneLake zur Analyse, Speicherung und Berichterstellung. Dieser Ansatz analysiert Daten, ohne sie zu verschieben, und stellt sie nachgeschalteten Verbrauchern zur Verfügung.
Fabric bietet serverlose Analysetools bei Bedarf, z. B. den SQL-Analyseendpunkt und Apache Spark, ohne dass bereitgestellte Ressourcen erforderlich sind. Diese Tools unterstützen die folgenden Aktivitäten:
ETL- und ELT-Aktivitäten für OneLake-Daten
Bereitstellung der Goldschicht der Medallion-Architektur für Power BI-Berichte über die DirectLake-Funktion
Improvisierte Datenanalysen in T-SQL oder Python
Frühes Prototyping für Data-Warehouse-Entitäten
Fabric integriert sich mit den Nutzern Ihrer mehrquellen Datasets, einschließlich Power BI Front-End-Berichte, Machine Learning, Power Apps, Azure Logic Apps, Azure Functions und Azure App Service Web Apps.
Komponenten
Fabric ist ein Analysedienst, der Datentechnik, Data Warehouse, Data Science und Echtzeitdaten und BI-Funktionen kombiniert. In dieser Architektur bieten Fabric-Datentechnik-Funktionen eine kollaborative Plattform für Dateningenieure, Data Scientists, Datenanalysten und BI-Experten. Fabric verwendet serverlose Computemodule, um Erkenntnisse zu generieren, die die Entscheidungsfindung im Unternehmen unterstützen.
SQL-Datenbank und SQL Managed Instance sind cloudbasierte relationale Datenbankdienste. In dieser Architektur hosten diese Dienste das Enterprise Data Warehouse und führen ETL- und ELT-Aktivitäten mithilfe gespeicherter Prozeduren oder externer Pakete (SSIS) aus. SQL-Datenbank und SQL Managed Instance sind Plattform-as-a-Service (PaaS)-Umgebungen, die Sie verwenden können, um hohe Anforderungen an Verfügbarkeit und Notfallwiederherstellung zu erfüllen. Wählen Sie eine SKU aus, die Ihren Anforderungen entspricht. Weitere Informationen finden Sie unter Hohe Verfügbarkeit für SQL-Datenbank und hohe Verfügbarkeit für sql Managed Instance.
Event Hubs ist eine Echtzeitdatenstreamingplattform und ein Ereignisaufnahmedienst. In dieser Architektur integriert sich Event Hubs mit Azure-Datendiensten, um Streaming-Daten aus verschiedenen Quellen in Data Lake Storage zur Analyse und Berichterstellung aufzunehmen. Event Hubs können daten auch direkt an Real-Time Intelligence streamen.
Data Lake Storage ist ein zentrales cloudbasiertes Repository, das strukturierte und unstrukturierte Daten speichert. In dieser Architektur kann Data Lake Storage archivierte Streamingdaten und Kopien von Dynamics 365-Daten speichern.
Alternativen
Sie können Azure IoT Hub verwenden, um Event Hubs zu ersetzen oder zu ergänzen. Wählen Sie Ihre Lösung basierend auf der Quelle Ihrer Streamingdaten und abhängig davon aus, ob Sie Funktionen zum Klonen und zur bidirektionalen Kommunikation mit den Berichterstellungsgeräten benötigen.
Sie können Fabric-Datenpipelinen anstelle von Data Factory-Pipelines für die Datenintegration verwenden. Ihre Entscheidung hängt von mehreren Faktoren ab. Weitere Informationen finden Sie unter "Unterschiede zwischen Azure Data Factory" und "Fabric Data Factory".
Sie können Fabric Data Warehouse anstelle von SQL-Datenbank oder SQL Managed Instance verwenden, um Unternehmensdaten zu speichern. Dieser Artikel priorisiert die Markteinführungszeit (TTM) für Kunden, die ihre Datenlager modernisieren möchten. Weitere Informationen finden Sie unter Fabric-Datenspeicheroptionen.
Szenariodetails
Kleine oder mittelständische Unternehmen, die lokale Data Warehouses für die Cloud modernisieren, können zwischen zwei Ansätzen wählen. Sie können Big Data-Tools für zukünftige Skalierbarkeit einführen oder herkömmliche SQL-basierte Lösungen für Kosteneffizienz und einen vorhersehbaren Übergang verwenden. Mit einem Hybridansatz können Sie vorhandene Daten migrieren, während Sie moderne Tools und KI-Funktionen verwenden. Sie können SQL-basierte Datenquellen in der Cloud ausführen und inkrementell modernisieren.
In diesem Artikel wird beschrieben, wie kleine oder mittelständische Unternehmen ältere Datenspeicher modernisieren und Big Data-Tools einführen können, während sie in vorhandenen Budgets und Qualifikationsgruppen bleiben. Diese Azure Data Warehouse-Lösungen sind in Azure- und Microsoft-Dienste integriert, einschließlich Foundry Tools, Dynamics 365 und Power Platform.
Mögliche Anwendungsfälle
Migration eines herkömmlichen lokalen relationalen Data Warehouse mit weniger als 1 TB, das SSIS-Pakete zum Orchestrieren gespeicherter Prozeduren verwendet.
Kombinieren Sie Dynamics 365- oder Dataverse-Daten mit Batch- und Echtzeitdaten aus Data Lake Storage.
Verwenden Sie innovative Techniken, um mit zentralisierten Data Lake Storage-Daten zu interagieren. Zu diesen Techniken gehören serverlose Analysen, Knowledge Mining, Datenfusion zwischen Domänen und Self-Service Data Exploration mithilfe von Copilot in Fabric.
Ermöglichen Sie E-Commerce-Unternehmen die Einführung von Cloud Data Warehouse zur betrieblichen Optimierung.
Wir empfehlen diese Lösung für die folgenden Szenarien nicht:
Greenfield Data Warehouse-Bereitstellungen. Informationen zu diesem Szenario finden Sie unter Greenfield Lakehouse auf Fabric.
Lokale Data Warehouses, die 1 TB oder größer sind oder diese Größe innerhalb eines Jahres erreichen. Die meisten Organisationen übernehmen spezielle Data Warehouse-Lösungen für Data Warehouses in dieser Größe. Informationen zu diesen Szenarien finden Sie unter Alternativen zum Replatforming.
Überlegungen
Diese Überlegungen bilden die Säulen des Azure Well-Architected Framework, einer Reihe von Leitprinzipien, die Sie zur Verbesserung der Qualität eines Workloads verwenden können. Weitere Informationen finden Sie unter Well-Architected Framework.
Zuverlässigkeit
Zuverlässigkeit trägt dazu bei, dass Ihre Anwendung die Verpflichtungen, die Sie gegenüber Ihren Kunden eingehen, erfüllen kann. Weitere Informationen finden Sie unter Erstellen einer Checkliste zur Überprüfung der Zuverlässigkeit.
Sie und Microsoft teilen die Verantwortung für die Zuverlässigkeit der meisten Azure-Dienste. Microsoft bietet Funktionen zur Unterstützung von Resilienz und Wiederherstellung. Sie müssen verstehen, wie diese Funktionen in den einzelnen Diensten funktionieren, die Sie verwenden, und wählen Sie die Konfigurationen aus, die Ihren Geschäftszielen und Uptime-Zielen entsprechen. Überprüfen Sie die dienstspezifische Dokumentation, um Konfigurationen auszuwählen, die Ihren Zielen für Geschäftskontinuität und Notfallwiederherstellung entsprechen.
Kostenoptimierung
Die Kostenoptimierung konzentriert sich auf Möglichkeiten, unnötige Ausgaben zu reduzieren und die betriebliche Effizienz zu verbessern. Weitere Informationen finden Sie in der Prüfliste für die Entwurfsüberprüfung für die Kostenoptimierung.
Mit dem Azure-Preisrechner können Sie Werte ändern, um zu verstehen, wie sich Ihre spezifischen Anforderungen auf Kosten auswirken. Sehen Sie sich ein Preisbeispiel für ein Szenario für ein kleines oder mittleres Business Data Warehouse an.
Die SQL-Datenbankpreise hängen von der Computeebene, der Dienstebene, der Anzahl der vCores und datenbanktransaktionseinheiten ab. Im Preisbeispiel wird eine einzelne Datenbank mit bereitgestelltem Compute und acht vCores verwendet, um gespeicherte Prozeduren in der SQL-Datenbank auszuführen. Sie können Kosten reduzieren, indem Sie reservierte Kapazität und Azure-Hybridvorteile verwenden.
Die Preise für Data Lake Storage hängen von Speichervolumen und Datenzugriffshäufigkeit ab. Das Preisbeispiel umfasst 1 TB Datenspeicher und damit verbundene Transaktionskosten. Die Größe von 1 TB stellt die Größe des Datensees dar, nicht die ursprüngliche Ältere Datenbankgröße. Data Lake Storage sind zusätzliche Modernisierungskosten, die über die der Legacydatenbank hinausgehen.
Die Fabric-Preise hängen vom Fabric F-Kapazitätsmodell oder vom Premium-Modell pro Person ab. Serverlose Funktionen verbrauchen CPU und Arbeitsspeicher von der erworbenen dedizierten Kapazität. Nach der Modernisierung funktionieren Ihre vorhandenen Berichte weiterhin, indem sie eine Verbindung mit dem neuen Data Warehouse (SQL-Datenbank oder SQL Managed Instance) mit Ihrer vorhandenen Lizenzierung herstellen. Das Preisbeispiel umfasst die F2-SKU zur Darstellung der zukünftigen BI-Erweiterung durch Self-Service-Datenvorbereitung, Datamarts, Real-Time Intelligence und KI-unterstützte Workflows. Die F2-SKU mit einjähriger Reservierung bietet einen kostengünstigen Einstiegspunkt. Wenn Sie derzeit Power BI Premium verwenden oder zu F64 migriert haben, benötigen Sie möglicherweise keine zusätzliche F-Kapazität.
Die Preise für Event Hubs hängen von der ausgewählten Stufe, bereitgestellten Durchsatzeinheiten (PTUs) und dem Datenverkehrsvolumen ab. Im Preisbeispiel wird davon ausgegangen, dass eine Durchsatzeinheit auf der Standardebene mehr als eine Million Ereignisse pro Monat verarbeitet. Event Hubs stellen eine zusätzliche Modernisierungskosten dar, wenn Sie Ihrer Lösung Echtzeitstreamingfunktionen hinzufügen.
Beitragende
Microsoft verwaltet diesen Artikel. Die folgenden Mitwirkenden haben diesen Artikel geschrieben.
Hauptautor:
- Galina Polyakova | Senior Cloud Solution Architect
Anderer Mitwirkender:
- Bhaskar Sharma | Senior Program Manager
Um nicht-öffentliche LinkedIn-Profile anzuzeigen, melden Sie sich bei LinkedIn an.
Nächste Schritte
- Lernpfade für Datentechniker
- Erste Schritte mit Fabric
- Durchsuchen aller Kurse, Lernpfade und Module für Fabric
- Erstellen einer einzelnen Datenbank
- Erstellen einer Bereitstellung von verwalteter SQL-Instanz
- Erstellen eines Speicherkontos zur Verwendung mit Data Lake Storage
- Erstellen eines Event Hubs mithilfe des Azure-Portals