Freigeben über


Erkunden von Integrationsmustern

Planen Sie basierend auf Ihrer Analyse die Integration, und identifizieren Sie das beste Muster für Ihre Anforderungen. Die folgende Liste der Integrationsmuster ist nicht vollständig. Möglicherweise stellen Sie fest, dass eine Kombination dieser Muster am besten zu Ihrem Szenario passt.

Jedes Muster befasst sich mit bestimmten Geschäftsszenarien und technischen Einschränkungen:

  • Sofortiges Triggermuster: Dieses Muster gibt an, wie Benutzer mit Systemen interagieren. Eine benutzergesteuerte Aktion löst eine vordefinierte Reihe von Aktionen aus.
  • Ereignisgesteuertes Muster: Für dieses Muster ist ein automatischer Trigger erforderlich, z. B. eine Reaktion auf Ereignisse, die in einem bestimmten System auftreten.
  • Datenkonsolidierungsmuster: Dieses Muster ist für Organisationen mit mehreren Verwaltungssystemen unerlässlich, die ein vollständiges Bild ihrer Daten in ihren verschiedenen Systemen erfordern.
  • Dienstorientiertes Architekturmuster: Dieses Muster umfasst in der Regel mehrere Abläufe über Systeme hinweg und ermöglicht eine modulare, skalierbare Integration in komplexe Umgebungen.
  • Synchronisierungsmuster: Dieses Muster sorgt dafür, dass Daten in verschiedenen Datenbanken synchronisiert werden und leistungs- und behördliche Anforderungen erfüllt sind.

Sofortiges Triggermuster

Das Soforttriggermuster ist benutzergesteuert und intuitiv. Er initiiert einen Integrationsfluss, wenn ein Benutzer eine Aktion ausführt, z. B. durch Drücken einer Schaltfläche in einer Power App. Dieses Muster eignet sich ideal für Szenarien, in denen Daten bei Bedarf und nicht kontinuierlich benötigt werden.

Beispielszenario

Mit einer Power App können Produktmanager Kundenfeedback überprüfen und Aktionspläne erstellen. Einige technische Spezifikationen werden im Produktlebenszyklus-Management-System von Oracle gespeichert. Anstatt das gesamte Dataset nach Dataverse zu kopieren, enthält die App eine Schaltfläche zum Abrufen von Daten bei Bedarf.

Gründe für die Integration anstelle der Umleitung von Benutzern zu Oracle sind:

  • Schlechte Benutzererfahrung
  • Sicherheitsbedenken
  • Lizenzkosten

Angesichts der Kosteneffizienz von Power Platform-Integrationen kann jeder dieser Gründe die Implementierung rechtfertigen.

Ablaufgestaltung

Verwenden Sie einen sofortigen Cloudfluss, der von einem Tastendruck in der Anwendung ausgelöst wird.

Dieses Diagramm veranschaulicht das Soforttriggermuster, bei dem eine vom Benutzer initiierte Aktion Daten aus einem externen System abruft und in Dataverse schreibt:

Diagramm mit einem durch Schaltfläche ausgelösten Fluss, das die Schritte zum Abrufen von Oracle-Daten, deren Rückgabe an die App und das Schreiben in Dataverse zeigt.

Der Ablauf umfasst die folgenden Schritte:

  1. Fordern Sie Datensätze von Oracle mithilfe von Parametern (z. B. Produkt-ID) an, die von der App bereitgestellt werden.
  2. Zurückgeben von Datensätzen von Oracle an die App.
  3. Datensätze in Dataverse schreiben.

Diese Daten werden dann in der Power Apps-Schnittstelle wiedergegeben.

Betrachtungen:

  • Datenmodelle zwischen Oracle und Dataverse können unterschiedlich sein, was Transformationsschritte erfordert.
  • Sofortauslöser sind nicht wirklich augenblicklich. Die Ausführungszeit hängt von der Systemverfügbarkeit und Transformationskomplexität ab.
  • Fügen Sie visuelle Indikatoren in der App hinzu, um den Fortschritt anzuzeigen und den Abbruch zuzulassen, wenn der Vorgang zu lang dauert.
  • In großen Organisationen können gleichzeitige Anforderungen von vielen Benutzern das System belasten.
  • Integrationen können aus verschiedenen Gründen fehlschlagen. Stellen Sie sicher, dass die App Benutzern während der Ausführung Feedback gibt. Vermeiden Sie Szenarien, in denen Benutzer eine Schaltfläche auswählen und keine Antwort erhalten, was zu einer schlechten Benutzererfahrung führt.

Ereignisgesteuertes Muster

Ereignisgesteuerte Architekturen (auch als automatische Trigger bezeichnet) reagieren auf Änderungen in Systemen ohne direkte Benutzerinteraktion. Beispielsweise können Trigger so konfiguriert werden, dass sie auf einen in Dataverse erstellten Datensatz, eingehende E-Mails, Dateien, die zu OneDrive hinzugefügt wurden, und viele andere Ereignisse reagieren. Dieses Muster ist intuitiv und skalierbar und eignet sich ideal für die Automatisierung von Geschäftsprozessen basierend auf Systemereignissen.

Beispielszenario

Eine Kundendienstabteilung verwendet eine dataverse-verbundene App, um an Fällen zu arbeiten und Kunden automatisch Updates bereitzustellen, ohne E-Mails manuell zu schreiben. Nur bestimmte Änderungen , z. B. das Hinzufügen einer Notiz oder das Ändern des Status, sollten Benachrichtigungen auslösen.

Verwenden Sie einen automatischen Trigger in Power Automate, um auf diese Ereignisse zu reagieren. Der Fluss überwacht Änderungen in Dataverse-Datensätzen und sendet Benachrichtigungen, wenn definierte Bedingungen erfüllt sind.

Dieses Diagramm zeigt das automatische Triggermuster, bei dem Änderungen in Dataverse automatisch nachgeschaltete Aktionen initiieren, die Kunden mit den relevanten Fallinformationen aktualisieren:

Screenshot der Power Automate-Flusskonfiguration mit Triggereinstellungen zum Überwachen von Dataverse-Datensatzänderungen.

Triggerkonfiguration

Konfigurieren Sie den Fluss wie folgt:

  • Geben Sie den zu überwachenden Änderungstyp an.
  • Definieren Sie die Spalten, auf die mit dem Parameter "Spalten auswählen" reagiert werden soll.
  • Verwenden Sie den Parameter "Filterzeilen ", um sicherzustellen, dass nur kundenbezogene Statusänderungen den Fluss auslösen, sowie alle anderen Filteranforderungen.

Vermeiden Sie es, diese Logik im Fluss selbst mithilfe einer If Aktion zu implementieren. Verwenden Sie Triggerparameter, um unnötige Ausführungen zu reduzieren und die Leistung zu verbessern.

Vermeiden logischer Konflikte

Bewerten Sie die Ereignislogik, um unbeabsichtigtes Verhalten zu verhindern:

  • Vermeiden Sie Schleifen, bei denen ein Ereignis eine Aktion auslöst, die dasselbe Ereignis erneut auslöst.
  • Verhindern, dass mehrere Updates schnelle, wiederholte Benachrichtigungen verursachen.
  • Entwerfen Sie Abläufe, um Randfälle zu berücksichtigen und übermäßige Ausführungen zu vermeiden.

Überlegungen zu Lautstärke und Häufigkeit

Verstehen des erwarteten Volumens ausgelöster Ereignisse. Benachrichtigungsdienste (E-Mail, SMS und andere) beschränken die Anzahl der Nachrichten, die Sie in einem bestimmten Zeitraum senden können.

  • Schätzen Sie die Anzahl der Ereignisse pro Tag oder Monat.
  • Implementieren Sie Drosselungs- oder Rate-Limiting-Mechanismen.
  • Bereiten Sie einen Entschärfungsplan für unerwartete Spitzen in der Ereignishäufigkeit vor.

Datenkonsolidierungsmuster

Die Datenkonsolidierung (auch als geplanter Trigger bezeichnet) hilft Organisationen, Informationen über mehrere Systeme hinweg zu vereinheitlichen, um Berichterstellungs- und Betriebsprozesse zu unterstützen. Während Analysen häufig vollständige Datasets erfordern, konzentrieren sich die betrieblichen Anwendungsfälle auf das Abrufen nur der Daten, die zum Ausführen von Geschäftsaufgaben erforderlich sind.

Beispielszenario

Ein Unternehmen verwendet drei legacy-Systeme zur Verwaltung von Kerngeschäftsfunktionen: SAP für Aufträge und Forderungen, Oracle für Produktbestand und IBM für kundenbezogenes Content Management. Die Organisation hat eine neue Power Platform-App beauftragt, KI zu verwenden, um die nächste beste Aktion für jeden Kunden basierend auf historischen Daten vorherzusagen. Die App muss relevante Informationen aus allen drei Systemen sammeln und einen Vertriebsaktionsplan für Vertriebsmanager generieren, um das Engagement zu leiten.

Integrationsansatz

Für die Integration sind keine Echtzeitaktualisierungen oder ereignisgesteuerten Trigger erforderlich. Verwenden Sie stattdessen einen geplanten Prozess basierend darauf, wie häufig Vertriebsmitarbeiter mit Kunden interagieren.

In diesem Anwendungsfall konsolidiert ein geplanter Trigger Daten wie folgt:

  • Fordert nur die erforderlichen Daten von jedem System an.
  • Gibt die Daten in ein mit Dataverse kompatibles Format zurück.
  • Lädt die Daten zur Analyse in das KI-Modell hoch.

Dieses Diagramm veranschaulicht das geplante Datenkonsolidierungsmuster, bei dem ein wiederkehrender Prozess Informationen aus mehreren Systemen sammelt und das kombinierte Dataset in Dataverse hochlädt:

Diagramm der Datenintegration mithilfe eines geplanten Prozesses zur Vereinheitlichung von Informationen aus drei älteren Systemen für KI-gesteuerte Verkaufsempfehlungen.

Konfiguration des geplanten Triggers

Geplante Trigger bieten flexible Wiederholungsoptionen von einmal pro Sekunde bis einmal pro Jahr. Sie sind im Zeitlichen vorhersagbar, können aber im Volumen unvorhersehbar werden, wenn der Datenumfang erweitert oder wachstum die Erwartungen überschreitet.

  • Überwachen der Ausführungszeit des Ablaufs, um Überlappungen oder Verzögerungen zu vermeiden
  • Implementieren von Schutzmaßnahmen zur Verhinderung von Leistungsbeeinträchtigungen
  • Verwenden von Application Insights oder ähnlichen Tools, um sicherzustellen, dass der Fluss konsistent ausgeführt wird

Risikominderung

Wenn ein geplanter Ablauf länger als erwartet dauert, kann er Geschäftsprozesse stören. Beispielsweise kann ein Ablauf, der alle 10 Minuten ausgeführt werden soll, fehlschlagen, wenn der Abschluss länger als 10 Minuten dauert.

  • Überwachen der Laufzeit und Festlegen von Warnungen für Anomalien
  • Planen der Skalierbarkeit, da das Datenvolumen steigt
  • Sichtbarkeit des Flussstatus sicherstellen, um unbemerkte Fehler zu verhindern

Dienstorientiertes Integrationsmuster

Große Organisationen betreiben häufig mehrere Systeme in verschiedenen Abteilungen. Diese Systeme entwickeln sich, um voneinander abhängig zu sein, um Geschäftsprozesse abzuschließen. Die Integrationsebene überbrückt diese Systeme, sodass jeder seine Kernfunktion ausführen kann und gleichzeitig die systemübergreifende Kommunikation ermöglicht.

Beispielszenario überarbeitet

Setzen wir uns mit unserem Beispielszenario fort, in dem die Organisation mehrere Systeme verwendet, um verschiedene Teile des Unternehmens zu verwalten. SAP verarbeitet Aufträge und Forderungen, Oracle verwaltet Produktbestand und IBM speichert interne Finanzdokumentationen. Dataverse führt Apps für Vertrieb, Kundendienst und Produktverwaltung aus. SharePoint unterstützt interne Zusammenarbeit und Knowledge Base Management, während Maersk-APIs Logistikprozesse automatisieren.

Dieses Diagramm veranschaulicht das ereignisgesteuerte Muster in einer Multisystemlandschaft, in dem Updates in verschiedenen Unternehmenssystemen automatisierte Flüsse auslösen, die Daten und Aktionen zwischen ihnen koordinieren:

Diagramm, das die Integrationsarchitektur mit mehreren Systemen zeigt, die durch bestimmte Trigger für Geschäftsprozesse verknüpft sind.

Jedes System interagiert mit anderen über geplante Ereignisse oder manuelle Benutzeraktionen. Kein einzelner Fluss dient allen Anwendungsfällen. Stattdessen erfordert die Lösung mehrere Abläufe, die auf bestimmte Trigger und Geschäftsprozesse zugeschnitten sind.

Vermeiden von monolithischen Flüssen

Das Erstellen eines großen Flusses zur Behandlung aller Integrationen ist nicht praktisch. Es führt zu Leistungs-, Sicherheits- und Wartungsproblemen. Stattdessen:

  • Erstellen von modularen Abläufen für jeden Trigger und Prozess
  • Optimieren von Abläufen für bestimmte Anwendungsfälle
  • Skalieren der Integrationslandschaft mit verwaltbaren Komponenten

Optimieren von systemübergreifenden Prozessen

Suchen Sie nach Möglichkeiten, die Logik gegebenenfalls zu konsolidieren. Wenn beispielsweise ein Dokument in SharePoint während desselben Ereignisses sowohl an SAP als auch an Oracle gesendet werden muss, können Sie versucht sein, einen Fluss zu erstellen, der die Datei einmal liest und in beide Systeme schreibt. Überlegen Sie zunächst jedoch, ob die logik, die Sie erstellen, zu starr ist. In einer großen Landschaft ändern sich Änderungen an der Funktionsweise von Geschäftsprozessen über Systeme hinweg so oft wie Änderungen an diesen Systemen.

Vermeiden Sie eine Überkonsolidierung. Geschäftsprozesse und Systemkonfigurationen ändern sich häufig. Starre, zentrale Logik reduziert Flexibilität und erhöht den Wartungsaufwand.

Designabläufe, die Folgendes umfassen:

  • Modular und wartungsfähig
  • Skalierbar über Abteilungen und Systeme
  • Widerstandsfähig gegenüber Änderungen der Geschäftslogik und des Systemverhaltens

Dieses Muster führt zu einer dienstorientierten Architektur – manchmal humorvoll als "Spaghetti-Architektur" bezeichnet – wo Systeme durch klar definierte, zweckorientierte Flüsse miteinander verbunden sind.

Datensynchronisierungsmuster

Verwenden Sie die Datensynchronisierung, wenn identische Systeme Daten in separaten Datenbanken speichern. Obwohl das Speichern der gleichen Daten zweimal ineffizient erscheinen könnte, unterstützt dieses Muster bestimmte Geschäftsanforderungen, z. B. Leistung und Einhaltung gesetzlicher Vorschriften.

  • Leistung: Der lokale Datenzugriff verbessert die Reaktionsfähigkeit, insbesondere in latenzempfindlichen Branchen.
  • Einhaltung: Gesetzliche Vorschriften erfordern möglicherweise, dass Daten innerhalb der nationalen Grenzen gespeichert werden. Organisationen stellen häufig lokale Instanzen mit Synchronisierungsprozessen bereit, um diese Anforderungen zu erfüllen.

Beispielszenario

Ein Unternehmen für Medizinprodukte arbeitet in mehreren Regionen Europas in Zusammenarbeit mit lokalen medizinischen Einrichtungen. Die Gesetze jeder Region sind klar über medizinische Daten – sie muss innerhalb der Grenzen dieser Region gespeichert werden. Informationen zu Bestellungen, Produkten und Versand können grenzüberschreitend gespeichert werden. Um die gesetzlichen Anforderungen zu erfüllen, hat das Unternehmen eine Instanz ihrer Power Platform-Kundenverwaltungs-App und Dataverse in jeder Region erstellt.

Um Vertriebsvorgänge zu unterstützen, möchte das Unternehmen nicht sensible Daten synchronisieren, z. B. Kontaktdetails, Bestellungen und Versand, über alle Instanzen hinweg. Medizinische Daten werden von der Synchronisierung ausgeschlossen.

Integrationsansatz

Verwenden Sie einen automatischen Cloud-Flow, der durch Aktualisierungen der Kontodaten ausgelöst wird. Konfigurieren von Filtern für:

  • Nur zulässige Felder überwachen
  • Verhindern der Synchronisierung eingeschränkter Daten

Dieser Ansatz führt zu einer gezielten ereignisgesteuerten Integration, die Compliance und betriebliche Effizienz unterstützt.

Dieses Diagramm veranschaulicht das ereignisgesteuerte Synchronisierungsmuster, bei dem Updates in einer Dataverse-Umgebung automatisch entsprechende Updates in einer anderen auslösen:

Diagramm einer ereignisgesteuerten Integration mit Volumen- und Häufigkeitsvariationen basierend auf Kontoaktualisierungen mit angewendeten Filtern.

Erwartungen an antwortzeit

Legen Sie realistische Erwartungen für die Synchronisierungsgeschwindigkeit fest. Power Automate ist asynchron und garantiert keine Echtzeitleistung. Wenn Geschäftsbenutzer sofortige Datenverfügbarkeit erwarten, klären Sie die Einschränkungen frühzeitig im Entwurfsprozess.

  • Bewerten, ob Power Automate leistungsanforderungen erfüllt
  • Vermeiden Sie eine Übertechnisierung, es sei denn, dies ist durch geschäftliche Anforderungen für den Echtzeitzugriff gerechtfertigt.

Viele Anforderungen für den Echtzeitzugriff fehlen einem starken Geschäftsfall. Priorisieren Sie Klarheit, Skalierbarkeit und Wartung im Integrationsdesign.

Jenseits von Cloudflüssen

Wenn Sie ein Integrationstool auswählen, beginnen Sie mit Power Automate als Standardoption. Es bietet eine unerreichte Kosteneffizienz sowohl für die Entwicklung als auch für die Wartung.

Power Automate ist das bevorzugte Integrationstool für viele Szenarien, da es:

  • Bietet schnelle Entwicklung mit Low-Code-Konnektoren
  • Minimiert langfristige Wartungskosten
  • Unterstützt eine vielzahl von Triggern und Systemen
  • Skaliert gut für die meisten Geschäftsszenarien

Benutzerdefinierter Code, Azure Functions, Data Factory oder Service Bus bieten Ihnen möglicherweise mehr Kontrolle oder bessere Leistung, aber sie fügen Komplexität und Kosten hinzu. Verwenden Sie diese Optionen nur, wenn Power Automate Ihre geschäftlichen oder technischen Anforderungen nicht erfüllt.

Diagramm eines Integrationsworkflows mit Power Automate-Connectors, die Daten sammeln, und Azure Functions, die Berechnungen ausführen.

Beispielszenario

Ein Online-Banking-Service möchte Kunden schneller für Kredite qualifizieren. Der Qualifizierungsprozess umfasst komplexe Berechnungen und datenabrufe aus mehreren Systemen, um zu einer endgültigen Risikobewertung zu gelangen. Nach einer ersten Auswertung betrachtete der Bankdienst den Cloudfluss aufgrund der Komplexität der Berechnungen als ungeeignet.

In diesem Fall ist jedoch ein Hybridansatz die Antwort:

  • Power Automate zum Umgang mit der Datensammlung mithilfe integrierter Konnektoren
  • Komplexe Berechnungen, die in benutzerdefiniertem Code gekapselt werden, der als Azure-Funktion ausgeführt wird, die unabhängig skaliert oder in einem benutzerdefinierten Connector skaliert werden kann

Dieser Hybridansatz gleicht Leistung, Skalierbarkeit und Kosten ab.

Integrationsstrategie

Wählen Sie keine Werkzeuge isoliert aus. Kombinieren Sie stattdessen ihre Stärken. Beispiel:

  • Verwenden Sie Power Automate für die Orchestrierung und Konnektivität
  • Verwenden von Azure-Funktionen für rechenintensive Aufgaben
  • Verwenden von benutzerdefinierten Connectors zum Erweitern der Funktionalität bei Bedarf

Jede Integrationsentscheidung muss die Gesamtbetriebskosten berücksichtigen. Benutzerdefinierte Lösungen scheinen zwar leistungsfähig zu sein, erfordern aber häufig ein größeres Budget für Entwicklung, Lizenzierung und Support. Rechtfertigen Sie höhere Kosten mit klarem Geschäftswert.