Freigeben über


Architekturansätze für KI und maschinelles Lernen in multiinstanzenübergreifenden Lösungen

Eine immer größere Zahl von Multitenant-Lösungen basiert auf KI und maschinellem Lernen. Eine mehrinstanzenfähige KI- und Machine Learning-Lösung bietet einheitliche machine learning-basierte Funktionen für eine beliebige Anzahl von Mandanten. Mandanten können die Daten eines anderen Mandanten in der Regel nicht sehen oder freigeben, aber in einigen Fällen verwenden Mandanten möglicherweise dieselben Modelle wie andere Mandanten.

Multitenant AI- und Machine Learning-Architekturen müssen die Anforderungen für Daten und Modelle berücksichtigen. Diese Architekturen müssen auch die Rechenressourcen berücksichtigen, die zum Trainieren von Modellen und zur Durchführung von Rückschlüssen erforderlich sind. Es ist wichtig zu berücksichtigen, wie mehrinstanzenfähige KI- und Machine Learning-Modelle bereitgestellt, verteilt und koordiniert werden, und um sicherzustellen, dass Ihre Lösung genau, zuverlässig und skalierbar ist.

Generative KI-Technologien, die sowohl von großen als auch von kleinen Sprachmodellen unterstützt werden, gewinnen weiterhin an Beliebtheit. Daher müssen Organisationen effektive betriebliche Praktiken und Strategien für die Verwaltung dieser Modelle in Produktionsumgebungen einrichten, indem machine Learning Operations (MLOps) und generative KI-Vorgänge (GenAIOps) verwendet werden, manchmal auch als LLMOps bezeichnet.

Wesentliche Aspekte und Anforderungen

Wenn Sie mit KI und maschinellem Lernen arbeiten, ist es wichtig, ihre Anforderungen für schulungen und die Ableitung separat zu berücksichtigen. Der Zweck der Schulung besteht darin, ein prädiktives Modell zu erstellen, das auf einer Datenmenge basiert. Sie führen Schlussfolgerungen durch, wenn Sie das Modell verwenden, um etwas in Ihrer Anwendung vorherzusagen. Jeder dieser Prozesse hat unterschiedliche Anforderungen. In einer Mehrinstanzenlösung sollten Sie überlegen, wie sich Ihr Mandantenmodell auf jeden Prozess auswirkt. Wenn Sie jede dieser Anforderungen berücksichtigen, können Sie sicherstellen, dass Ihre Lösung genaue Ergebnisse liefert, gut unter Last arbeitet, kosteneffizient ist und für zukünftiges Wachstum skaliert werden kann.

Mandantenisolation

Stellen Sie sicher, dass Mandanten keinen nicht autorisierten oder unerwünschten Zugriff auf die Daten oder Modelle anderer Mandanten erhalten. Behandeln Sie Modelle mit einer ähnlichen Sorgfalt wie die Rohdaten, die sie trainieren. Stellen Sie sicher, dass Ihre Mandanten verstehen, wie ihre Daten verwendet werden, um Modelle zu trainieren und wie Modelle, die auf den Daten anderer Mandanten trainiert werden, möglicherweise zu Rückschlusszwecken auf ihre Workloads verwendet werden.

Die drei gängigen Ansätze für die Arbeit mit Machine Learning-Modellen in Multitenant-Lösungen sind mandantenspezifische Modelle, gemeinsame Modelle und abgestimmte gemeinsame Modelle.

Mandantenspezifische Modelle

Mandantenspezifische Modelle werden nur für die Daten für einen einzelnen Mandanten trainiert und dann auf diesen einzelnen Mandanten angewendet. Verwenden Sie mandantenspezifische Modelle, wenn die Daten Ihrer Mandanten vertraulich sind oder wenn Sie Erkenntnisse aus den Daten eines Mandanten nicht effektiv auf einen anderen Mandanten anwenden können. Das folgende Diagramm veranschaulicht, wie Sie für zwei Mandanten eine Lösung mit mandantenspezifischen Modellen erstellen können.

Diagramm, das zwei mandantenspezifische Modelle zeigt. Jedes Modell wird mit Daten aus einem einzigen Mandanten trainiert.

Gemeinsame Modelle

In Lösungen, die gemeinsam genutzte Modelle verwenden, führen alle Mandanten eine Ableitung basierend auf demselben gemeinsamen Modell aus. Gemeinsame Modelle können vortrainierte Modelle sein, die Sie von einer Quelle aus der Community erhalten oder beziehen. Das folgende Diagramm veranschaulicht, wie alle Mandanten ein einzelnes vortrainiertes Modell für Inferenzen verwenden können.

Diagramm, das ein einzelnes vortrainiertes Modell zeigt. Das Modell wird für die Ableitung durch Benutzer aus allen Mandanten verwendet.

Sie können auch eigene gemeinsam genutzte Modelle erstellen, indem Sie sie aus den Daten trainieren, die Ihnen alle Ihre Mandanten bereitstellen. Das folgende Diagramm veranschaulicht ein gemeinsames Modell, das mit Daten aller Nutzer trainiert wird.

Diagramm, das ein einzelnes gemeinsam genutztes Modell zeigt, das für die Daten aus mehreren Mandanten trainiert wird. Das Modell wird für die Ableitung durch Benutzer aus allen Mandanten verwendet.

Von Bedeutung

Wenn Sie ein gemeinsames Modell basierend auf den Daten Ihrer Mandanten entwickeln, stellen Sie sicher, dass Ihre Mandanten die Verwendung ihrer Daten verstehen und zustimmen. Stellen Sie sicher, dass die Identifizierungsinformationen aus den Daten Ihrer Mandanten entfernt werden.

Überlegen Sie, was zu tun ist, wenn ein Mandant Einwände dagegen hat, dass seine Daten verwendet werden, um ein Modell zu trainieren, das einem anderen Mandanten dient. Wenn ein Mandant zum Beispiel Einwände dagegen erhebt, dass seine Daten verwendet werden, um ein Modell zu trainieren, das einem anderen Mandanten dient, müssen Sie möglicherweise die Daten dieses Mandanten aus dem Trainingsdatensatz ausschließen.

Optimierte geteilte Modelle

Sie können auch ein vortrainiertes Basismodell erwerben und dann weitere Modelloptimierungen durchführen, um sie auf jeden Ihrer Mandanten basierend auf ihren eigenen Daten anwendbar zu machen. Das folgende Diagramm veranschaulicht diesen Ansatz.

Diagramm, das ein vortrainiertes Basismodell zeigt, das für jeden Mandanten mit eigenen Daten spezialisiert ist.

Skalierbarkeit

Überlegen Sie, wie sich das Wachstum Ihrer Lösung auf ihre Nutzung von KI- und Machine Learning-Komponenten auswirkt. Das Wachstum kann auf eine Erhöhung der Anzahl der Mandanten, die Für jeden Mandanten gespeicherte Datenmenge, die Anzahl der Benutzer und das Volumen der Anforderungen an Ihre Lösung verweisen.

Ausbildung: Es gibt mehrere Faktoren, die die Ressourcen beeinflussen, die zum Trainieren Ihrer Modelle erforderlich sind. Zu diesen Faktoren gehören die Anzahl der Modelle, die Sie trainieren müssen, die Datenmenge, die Sie zum Trainieren der Modelle verwenden, und die Häufigkeit, mit der Sie Modelle trainieren oder neu trainieren. Wenn Sie mandantenspezifische Modelle erstellen, wächst bei wachsender Anzahl von Mandanten die Menge an Rechenressourcen und Speicher, die Sie benötigen, wahrscheinlich auch. Wenn Sie gemeinsam genutzte Modelle erstellen und diese mithilfe von Daten aus all Ihren Mandanten trainieren, skalieren die Schulungsressourcen in der Regel nicht mit der gleichen Rate wie das Wachstum der Mandanten. Da die Gesamtmenge der Schulungsdaten jedoch zunimmt, wirkt es sich auf die Ressourcen aus, die zum Trainieren geteilter und mandantenspezifischer Modelle verbraucht werden.

Schlussfolgerung: Die ressourcen, die für die Ableitung erforderlich sind, sind häufig proportional zur Anzahl der Anforderungen, die auf die Modelle für die Ableitung zugreifen. Mit der Zunahme der Anzahl der Mandanten wird wahrscheinlich auch die Anzahl der Anforderungen steigen.

Es empfiehlt sich, Azure-Dienste zu verwenden, die gut skaliert werden. Da KI- und Machine Learning-Workloads in der Regel Container nutzen, sind Azure Kubernetes Service (AKS) und Azure Container Instances in der Regel häufig für KI- und Machine Learning-Workloads geeignet. AKS ist häufig eine gute Wahl, um eine hohe Skalierung zu ermöglichen und Ihre Computeressourcen basierend auf Bedarf dynamisch zu skalieren. Sie können Containerinstanzen für kleine Workloads verwenden. Es ist relativ einfach zu konfigurieren, skaliert aber nicht so einfach wie AKS.

Leistung

Berücksichtigen Sie die Leistungsanforderungen für die KI- und machine Learning-Komponenten Ihrer Lösung, einschließlich Schulungen und Rückschlüsse. Definieren Sie die Latenz- und Leistungserwartungen für jeden Prozess eindeutig, damit Sie sie bei Bedarf messen und verbessern können.

Ausbildung: Schulungen werden häufig als Batchprozess durchgeführt, was bedeutet, dass sie möglicherweise nicht so leistungsempfindlich wie andere Teile Ihrer Workload ist. Sie müssen jedoch sicherstellen, dass Sie ausreichende Ressourcen bereitstellen, um Ihre Modellschulung effizient durchzuführen, einschließlich der Skalierung.

Schlussfolgerung: Inference ist ein latenzempfindlicher Prozess, der häufig eine schnelle oder sogar Echtzeitantwort erfordert. Auch wenn Sie in Echtzeit keine Ableitung durchführen müssen, stellen Sie sicher, dass Sie die Leistung Ihrer Lösung überwachen und die entsprechenden Dienste verwenden, um Ihre Workload zu optimieren.

Erwägen Sie die Verwendung von Azure High-Performance Computing-Funktionen für Ihre AI- und Machine Learning-Workloads. Azure bietet viele verschiedene Arten virtueller Computer und anderer Hardwareinstanzen. Überlegen Sie, ob Ihre Lösung von der Verwendung von CPUs, GPUs, field-programmable Gate Arrays (FPGAs) oder anderen hardwarebeschleunigten Umgebungen profitieren kann. Azure bietet außerdem Echtzeit-Rückschlüsse auf NVIDIA-GPUs, einschließlich NVIDIA Triton Inference Server. Bei Rechenanforderungen mit niedriger Priorität sollten Sie die Verwendung von AKS-Spotknotenpools in Betracht ziehen. Weitere Informationen zum Optimieren von Computediensten in einer Multitenant-Lösung finden Sie unter Architekturansätze für die Berechnung in Multitenant-Lösungen.

Modellschulungen erfordern in der Regel viele Interaktionen mit Ihren Datenspeichern, daher ist es auch wichtig, Ihre Datenstrategie und die Leistung zu berücksichtigen, die Ihre Datenebene bereitstellt. Weitere Informationen zu Mehrinstanzen- und Datendiensten finden Sie unter Architekturansätze für Speicherung und Daten in multiinstanzenübergreifenden Lösungen.

Erwägen Sie das Leistungsprofiling Ihrer Lösung. Azure Machine Learning bietet beispielsweise Profilerstellungsfunktionen , die Sie beim Entwickeln und Instrumentieren Ihrer Lösung verwenden können.

Implementierungskomplexität

Wenn Sie eine Lösung für die Verwendung von KI und maschinellem Lernen erstellen, können Sie vorgefertigte Komponenten verwenden oder benutzerdefinierte Komponenten erstellen. Sie müssen zwei wichtige Entscheidungen treffen. Wählen Sie zunächst die Plattform oder den Dienst aus, die für KI und maschinelles Lernen verwendet werden sollen. Entscheiden Sie zweitens, ob Sie vortrainierte Modelle verwenden oder eigene benutzerdefinierte Modelle erstellen möchten.

Plattformen: Es gibt viele Azure-Dienste, die Sie für Ihre AI- und Machine Learning-Workloads verwenden können. Microsoft Foundry stellt z. B. APIs bereit, um Rückschlüsse auf vordefinierte Modelle durchzuführen, und Microsoft verwaltet die zugrunde liegenden Ressourcen. Foundry ermöglicht es Ihnen, schnell eine neue Lösung bereitzustellen, beschränkt jedoch die Kontrolle über Schulungs- und Ableitungsprozesse und passt möglicherweise nicht zu jeder Art von Workload. Im Gegensatz dazu ist Machine Learning eine Plattform, die es Ihnen ermöglicht, Eigene Machine Learning-Modelle zu erstellen, zu trainieren und zu verwenden. Machine Learning bietet Kontrolle und Flexibilität, erhöht aber die Komplexität Ihres Designs und Ihrer Implementierung. Überprüfen Sie die Machine Learning-Produkte und -Technologien von Microsoft , um eine fundierte Entscheidung zu treffen, wenn Sie einen Ansatz auswählen.

Modelle: Auch wenn Sie kein vollständiges Modell verwenden, das ein Dienst wie Foundry bereitstellt, können Sie weiterhin ein vortrainiertes Modell verwenden, um Ihre Entwicklung zu beschleunigen. Wenn ein vortrainiertes Modell nicht genau Ihren Anforderungen entspricht, sollten Sie ein vortrainiertes Modell erweitern, indem Sie eine Technik anwenden, die als Feinabstimmung oder Transferlernen bezeichnet wird. Mit der Feinabstimmung können Sie ein vorhandenes Modell erweitern und auf eine andere Domäne anwenden. Wenn Sie z. B. einen Mehrinstanzen-Musikempfehlungsdienst erstellen, sollten Sie von einem vortrainierten Modell von Musikempfehlungen aus beginnen und das Modell mit Feinabstimmungen trainieren, um die Musikeinstellungen eines bestimmten Benutzers zu trainieren.

Mit einer vorgefertigten Machine Learning-Plattform wie Foundry oder einem vortrainierten Modell können Sie Ihre anfänglichen Forschungs- und Entwicklungskosten erheblich reduzieren. Durch die Verwendung vorgefertigter Plattformen können Sie viele Monate Forschung sparen und vermeiden, dass hoch qualifizierte Data Scientists zum Trainieren, Entwerfen und Optimieren von Modellen rekrutiert werden müssen.

Kostenoptimierung

Im Allgemeinen verursachen KI- und Machine Learning-Workloads den größten Anteil ihrer Kosten aus den Computeressourcen, die für modellgestützte Schulungen und Rückschlüsse erforderlich sind. Weitere Informationen zum Optimieren der Kosten Ihrer Rechenauslastung für Ihre Anforderungen finden Sie unter Architekturansätze für die Berechnung in Multitenant-Lösungen.

Berücksichtigen Sie die folgenden Anforderungen, wenn Sie Ihre KI- und Machine Learning-Kosten planen:

  • Ermitteln Sie Compute-SKUs für Schulungen und Rückschlüsse. Sie können verschiedene SKUs für Schulungen und rückschlüsse verwenden. Wählen Sie SKUs aus, die Ihren Anforderungen für Leistung und Kosten entsprechen und in den von Ihnen verwendeten Regionen verfügbar sind. Weitere Informationen finden Sie unter Compute-Empfehlungen für KI-Workloads in der Azure-Infrastruktur (IaaS).

  • Überwachen Sie Ihre Nutzung. Indem Sie die Nutzung Ihrer Computeressourcen beobachten, können Sie ermitteln, ob Sie ihre Kapazität verringern oder erhöhen sollten, indem Sie unterschiedliche SKUs bereitstellen oder die Computeressourcen skalieren, wenn sich ihre Anforderungen ändern. Weitere Informationen finden Sie unter Monitor Machine Learning.

  • Optimieren Sie Ihre Computeclustering-Umgebung. Wenn Sie Computecluster verwenden, überwachen Sie die Clusterverwendung, oder konfigurieren Sie die automatische Skalierung , um Computeknoten nach unten zu skalieren.

  • Teilen Sie Ihre Computeressourcen. Überlegen Sie, ob Sie die Kosten Ihrer Computeressourcen optimieren können, indem Sie sie für mehrere Mandanten freigeben.

  • Berücksichtigen Sie Ihr Budget. Verstehen Sie, ob Sie über ein festes Budget verfügen und Ihren Verbrauch entsprechend überwachen. Sie können Budgets einrichten, um übermäßige Ausgaben zu vermeiden und Kontingente basierend auf der Mandantenpriorität zuzuweisen.

Zu berücksichtigende Ansätze und Muster

Azure bietet eine Reihe von Diensten, um KI- und Machine Learning-Workloads zu ermöglichen. Es gibt mehrere gängige Architekturansätze, die in Multitenant-Lösungen verwendet werden:

  • Verwenden Sie vorgefertigte KI- und Machine Learning-Lösungen.

  • Erstellen Sie eine benutzerdefinierte KI- und Machine Learning-Architektur mithilfe von Machine Learning.

  • Verwenden Sie eine der Azure-Analyseplattformen.

Verwenden vordefinierter KI- und Maschineller Lerndienste

Es ist eine bewährte Methode, wenn Sie versuchen, vorgefertigte KI- und maschinelle Lerndienste zu verwenden, wenn Sie können. Ihre Organisation kann z. B. beginnen, KI und maschinelles Lernen zu erkunden und schnell in einen nützlichen Dienst zu integrieren. Oder Sie verfügen möglicherweise über grundlegende Anforderungen, für die keine benutzerdefinierten Schulungen und Entwicklungen für maschinelles Lernen erforderlich sind. Vorkonfigurierte Maschinelle Lerndienste ermöglichen es Ihnen, Rückschlüsse zu verwenden, ohne eigene Modelle zu erstellen und zu trainieren.

Azure verfügt über mehrere Dienste, die KI- und Machine Learning-Technologie in einer Reihe von Domänen bereitstellen. Zu diesen Domänen gehören Sprachverständnis, Spracherkennung, Wissen, Dokument- und Formularerkennung sowie Computervision. Azure bietet vorgefertigte KI- und Maschinelle Lerndienste über Foundry, die ein einheitlicher KI-Anwendungsdienst ist. Dieser Dienst bietet Benutzern Zugriff auf verschiedene Modelle, einschließlich Azure OpenAI in Foundry Models. Azure bietet auch eine Reihe eigenständiger KI-Dienste, einschließlich Azure AI Search und Azure AI Document Intelligence. Jeder Dienst bietet eine einfache Schnittstelle für die Integration und eine Sammlung von vortrainierten und getesteten Modellen. Als verwaltete Dienste stellen sie Vereinbarungen auf Serviceebene bereit und erfordern wenig Konfiguration oder laufende Verwaltung. Sie müssen keine eigenen Modelle entwickeln oder testen, um diese Dienste nutzen zu können.

Viele verwaltete Machine Learning-Dienste erfordern keine Modellschulungen oder -daten, daher gibt es in der Regel keine Mandantendatenisolation. Einige verwaltete KI- und Machine Learning-Dienste bieten jedoch eine Modellanpassungsfunktion:

Wenn Sie mit diesen Diensten arbeiten, ist es wichtig, die Isolationsanforderungen für die Daten Ihrer Mandanten zu berücksichtigen.

Berücksichtigen Sie die Skalierungsanforderungen für die Komponenten in Ihrer Lösung. Beispielsweise unterstützen viele der APIs innerhalb von Azure AI-Diensten eine maximale Anzahl von Anforderungen pro Sekunde. Wenn Sie eine einzelne KI-Dienstressource bereitstellen, um sie für Ihre Mandanten gemeinsam nutzen zu können, müssen Sie möglicherweise bei steigender Anzahl von Mandanten auf mehrere Ressourcen skalieren.

Benutzerdefinierte KI- und Machine Learning-Architektur

Wenn Ihre Lösung benutzerdefinierte Modelle erfordert oder in einer Domäne arbeitet, die nicht von einem verwalteten Machine Learning-Dienst abgedeckt wird, sollten Sie ihre eigene KI- und Machine Learning-Architektur erstellen. Machine Learning bietet eine Reihe von Funktionen, um die Schulung und Bereitstellung von Machine Learning-Modellen zu koordinieren:

  • Verwenden Sie verschiedene Open-Source-Bibliotheken für maschinelles Lernen, einschließlich PyTorch, TensorFlow, Scikit und Keras.

  • Überwachen Sie die Leistungsmetriken der Modelle kontinuierlich.

  • Erkennen von Datenabweichungen, wenn sich Modelleingabedaten im Laufe der Zeit ändern.

  • Lösen Sie ein erneutes Training aus, um die Modellleistung zu verbessern.

  • Wenden Sie die Auditierbarkeit und Governance während des gesamten Lebenszyklus Ihrer Machine Learning-Modelle an. Verwenden Sie integrierte Nachverfolgung und Lineage (die Nachverfolgung von Daten- und Modellbeziehungen) für alle Ihre maschinellen Lernartefakte.

Wenn Sie in einer Mehrinstanzenlösung arbeiten, ist es wichtig, die Isolationsanforderungen Ihrer Mandanten sowohl während der Schulungs- als auch der Ableitungsphasen zu berücksichtigen. Außerdem müssen Sie ihren Modellschulungs- und Bereitstellungsprozess ermitteln. Maschinelles Lernen bietet eine Pipeline zum Trainieren von Modellen und zur Bereitstellung in einer Umgebung zur Ableitung. Mit diesem Prozess können Modelle Vorhersagen oder Erkenntnisse basierend auf neuen Daten generieren. Überlegen Sie in einem mehrinstanzenfähigen Kontext, ob Modelle für gemeinsam genutzte Computeressourcen bereitgestellt werden sollen oder ob jeder Mandant über dedizierte Ressourcen verfügt. Entwerfen Sie Ihre Modellbereitstellungspipelines basierend auf Ihrem Isolationsmodell und Ihrem Mandantenbereitstellungsprozess.

Wenn Sie Open-Source-Modelle verwenden, müssen Sie diese Modelle möglicherweise mithilfe von Transferlernen oder Optimierungen neu trainieren. Überlegen Sie, wie Sie unterschiedliche Modelle und Schulungsdaten für jeden Mandanten sowie die Versionen jedes Modells verwalten.

Das folgende Diagramm veranschaulicht eine Beispielarchitektur, die Machine Learning verwendet. Alternativ können Sie die Microsoft Fabric Data Science-Erfahrung nutzen, die Funktionen wie Experimente, Modellverwaltung und Endpunktbereitstellung bietet. Im Beispiel wird der mandantenspezifische Modellisolationsansatz verwendet.

Diagramm, das eine Architektur zeigt, die Machine Learning verwendet.

Integrierte KI- und Machine Learning-Lösungen

Azure bietet mehrere leistungsstarke Analyseplattformen, die für verschiedene Zwecke verwendet werden können. Zu diesen Plattformen gehören Microsoft Fabric, Azure Databricks und Apache Spark.

Sie können die Verwendung dieser Plattformen für KI und maschinelles Lernen in Betracht ziehen, wenn Sie Ihre Funktionen skalieren müssen, um ein hohes Volumen von Mandanten zu unterstützen und eine umfangreiche Berechnung und Orchestrierung zu erfordern. Sie können auch die Verwendung dieser Plattformen in Betracht ziehen, wenn Sie eine umfassende Analyselösung für andere Teile Ihres Systems benötigen, z. B. Datenanalysen und Integration in Die Berichterstellung über Power BI. Sie können eine einzelne Plattform bereitstellen, die alle Ihre Analyse- und KI- und Machine Learning-Anforderungen unterstützt. Wenn Sie Datenplattformen in einer mehrinstanzenübergreifenden Lösung implementieren, überprüfen Sie architekturübergreifende Ansätze für Speicherung und Daten in Multitenant-Lösungen.

Operatives Modell für maschinelles Lernen

Wenn Sie KI und maschinelles Lernen einführen, einschließlich generativer KI-Praktiken, empfiehlt es sich, Ihre Organisationsfunktionen bei der Verwaltung kontinuierlich zu verbessern und zu bewerten. Die Einführung von MLOps und GenAIOps bietet objektiv einen Rahmen, um die Fähigkeiten Ihrer KI und maschinellen Lernpraktiken in Ihrer Organisation kontinuierlich zu erweitern. Weitere Informationen finden Sie unter MLOps-Reifemodell und GenAIOps-Reifegradmodell.

Zu vermeide Antimuster

  • Isolationsanforderungen werden nicht berücksichtigt: Es ist wichtig, sorgfältig zu überlegen, wie Sie die Daten und Modelle von Mandanten sowohl für Schulungen als auch für Inferenz isolieren. Wenn Sie die Daten und Modelle der Mandanten nicht isolieren, verstoßen Sie möglicherweise gegen gesetzliche oder vertragliche Anforderungen. Es kann auch die Genauigkeit Ihrer Modelle verringern, wenn Sie Modelle mit den Daten mehrerer Mandanten trainieren und die Daten erheblich unterschiedlich sind.

  • Laute Nachbarn: Überlegen Sie, ob Ihre Schulungs- oder Rückschlussprozesse möglicherweise dem lauten Nachbarproblem unterliegen. Wenn Sie z. B. über mehrere große Mandanten und einen einzelnen kleinen Mandanten verfügen, stellen Sie sicher, dass die Modellschulung für die großen Mandanten nicht versehentlich alle Computeressourcen nutzt und die kleineren Mandanten entzieht. Verwenden Sie Ressourcengovernance und -überwachung, um das Risiko zu verringern, dass die Aktivität anderer Mandanten die Rechenlast eines Mandanten beeinflusst.

Beitragende

Microsoft verwaltet diesen Artikel. Die folgenden Mitwirkenden haben diesen Artikel geschrieben.

Hauptautor:

  • Kevin Ashley | Senior Customer Engineer, FastTrack für Azure

Andere Mitwirkende:

Um nicht-öffentliche LinkedIn-Profile anzuzeigen, melden Sie sich bei LinkedIn an.

Nächster Schritt