Freigeben über


Testen und Bewerten von KI-Workloads in Azure

Dieser Artikel konzentriert sich auf zwei unterschiedliche Aspekte: Die Auswertung der Modelle und das Testen des gesamten Systems. Auswertungen und Tests werden häufig austauschbar verwendet, sollten jedoch als separate Prozesse betrachtet werden, die unterschiedliche Datasets verwenden.

Die Auswertung ist eine iterative Aktivität, die Sie während der Entwicklungsphase ausführen. Es konzentriert sich auf das Experimentieren, um das beste Modell mit dem richtigen Maß an Tuning zu finden. Bewerten Sie dann das Modell anhand verschiedener Metriken.

Tests umfassen die Überprüfung des gesamten Systems, wenn eine Änderung eingeführt wird, einschließlich des abgestimmten Modells und nicht der KI-Komponenten. Ziel ist es, zu überprüfen, ob die Workload identifizierte Ziele erfüllt und die Erwartungen der Benutzer erfüllt. Es ist auch eine nicht verhandelbare Änderungsmanagementstrategie, die Qualitätsregressionen verhindert.

Beide Methoden sind in der tatsächlichen Implementierung gekoppelt. Der gesamte Prozess umfasst das Senden von Anfragen an das Modell, die Auswertung der Antworten und das Ausführen oder no-go Entscheidung basierend auf den Testdaten. Während der Prozess vor der Produktion nicht verhandelbar ist, empfehlen wir Ihnen, den Prozess in der Produktion mit einer Mischung aus realen und synthetischen Daten durchzuführen.

Der Schwerpunkt liegt hier auf Lösungen, die mit generativer KI erstellt wurden, insbesondere szenarien mit Foundation-Modellen. Um Anleitungen für Schulungen und Feinabstimmungsmodelle zu erhalten, fahren Sie mit der Anleitung zum Testen von Modellschulungen und Feinabstimmungen fort.

Verwenden von Qualitätsmetriken für die Modellauswertung

Richten Sie eine Basislinie ein und messen Sie die Modellqualität mithilfe von Metriken, die ihren Geschäftszielen entsprechen.

Haben Sie Prozesse, die Ergebnisse der Benutzererfahrung anhand einer Reihe von Metriken auswerten und quantifizieren. So wird z. B. "Groundedness " ausgewertet, ob die Antwort eines generativen Modells vom bereitgestellten Kontext unterstützt wird, anstatt von fabricated. Angenommen, eine Anwaltskanzlei entwickelt einen KI-Assistenten, der Statuten angibt. Ohne ordnungsgemäße Überprüfung könnte es aus veralteten oder falsch klassifizierten Dokumenten stammen, was zu schwerwiegenden Folgen führt. Eine hohe Bodenigkeitsbewertung trägt dazu bei, dass die Ausgabe des Modells weiterhin an vertrauenswürdiges Quellmaterial ausgerichtet bleibt.

Wählen Und priorisieren Sie Metriken basierend auf Ihrem spezifischen Anwendungsfall, überwachen Sie sie kontinuierlich, und verwenden Sie sie als Entscheidungsgater für die Modelloptimierung und -bereitstellung. Verlassen Sie sich nicht auf eine einzelne Metrik, verwenden Sie eine Kombination, um verschiedene Dimensionen der Qualität zu erfassen. Selbst wenn ein Modell z. B. eine starke Erdung zeigt, kann es weiterhin verzerrungsbehaftete Ausgaben erzeugen. Berücksichtigen Sie Fairnessbewertungen für ausgewogenere und verantwortungsvollere Ergebnisse.

Informationen zu Metriken finden Sie unter Monitoring evaluation metrics descriptions and use cases.

Nutzung der richtigen Daten für die Auswertung

Verfeinern Sie Ihr Modell durch einen iterativen Prozess mithilfe von Auswertungsdaten. Dieses Dataset, das häufig als golden bezeichnet wird, besteht aus vertrauenswürdigen Eingabeausgabepaaren, die normalerweise von Menschen erstellt oder überprüft werden. Sie dient als objektive Benchmark, um die Modellleistung anhand definierter Qualitätsmetriken zu bewerten.

Stellen Sie sicher, dass das Dataset repräsentativ für die Domäne oder Aufgabe ist, mit vielfältigen, qualitativ hochwertigen Beispielen und minimalem Rauschen. Eine begrenzte Stichprobengröße kann zu einer schlechten Bewertungsqualität führen. Erwägen Sie daher, synthetische Daten zu generieren, wenn die Stichprobendaten über ausreichende Vielfalt oder Abdeckung verfügen, um das Gleichgewicht und die Vollständigkeit zu verbessern.

Überprüfen agentischer Workflows

Da sich Architekturen entwickeln, um KI zu verwenden, werden funktionen, die einst von deterministischem Code behandelt wurden, jetzt an KI-Agents entladen. Diese Agents treffen häufig Entscheidungen mit dynamischem Verhalten.

Erwägen Sie eine agentische Anwendung, bei der der Orchestrator selbst als Agent implementiert wird. Im Gegensatz zur herkömmlichen Orchestrierung können Agents Tools aufrufen, Eingabeaufforderungen interpretieren, mit anderen Agents zusammenarbeiten und sich in Echtzeit anpassen, wodurch sie flexibler, aber schwieriger zu überprüfen sind.

Diese Art von Architektur stellt neue Herausforderungen für Tests und Auswertungen vor. Da Agents nicht deterministisch arbeiten, sind herkömmliche statische Tests unzureichend. Die Teststrategie sollte den vollständigen Ablauf von Benutzereingaben bis hin zur endgültigen Antwort überprüfen, einschließlich bodenierender Datenabrufe , Toolaufrufe und Reaktionsgenerierung. Beispiel:

  • Stellen Sie sicher, dass Agents externe Tools, APIs und andere Agents ordnungsgemäß aufrufen. Verwenden Sie simulierte Abhängigkeiten, um zu überprüfen, ob Daten ordnungsgemäß übergeben werden. Simulieren Sie Tool- oder Agentfehler, um die Zuverlässigkeit im Verhalten zu testen.

  • Entwerfen Sie szenariobasierte Tests mit vordefinierten Eingabeaufforderungen und erwarteten Ausgaben. Da Die Ausgaben variieren können, bewerten Sie die Ergebnisse mithilfe der automatisierten Bewertung mit einem anderen Modell. Verwenden Sie auch die menschliche Überprüfung, insbesondere für sensible oder subjektive Aufgaben.

  • Integrieren Sie Tools zur Inhaltssicherheit, um schädliche, voreingenommene oder unangemessene Ausgaben zu erkennen. Fügen Sie rote Teamingübungen ein, um unerwartete Verhaltensweisen oder Jailbreak-Sicherheitsrisiken zu identifizieren. Überwachen Sie Fairness, Transparenz und Einhaltung ethischer Standards.

Betrachten Sie aus Sicht der Tools das Azure AI Evaluation SDK, das Prüfungen wie folgt unterstützt:

  • Absichtsauflösung: Versteht der Agent/Orchestrator die Anforderung des Benutzers ordnungsgemäß?
  • Toolaufrufgenauigkeit: Werden die richtigen Tools mit den richtigen Parametern aufgerufen?
  • Einhaltung der Aufgabe: Richtet sich die endgültige Ausgabe an den zugewiesenen Vorgang und vorherigen Begründungsschritten?

Führen Sie außerdem regelmäßige Leistungs- und Lasttests durch. Bewerten Sie die Fähigkeit des Agents, unter gleichzeitigen Anforderungen zu skalieren, lange Ausführungspfade zu verarbeiten und Interaktionen über mehrere Agents hinweg zu verwalten. Überwachen Sie kontinuierlich Regressionen in Logik und Leistung, da sich das System durch iterative Versionen weiterentwickelt.

Testen der Sicherheitsaspekte

Sichern Sie agentische Workflows, indem Sie den Zugriff steuern, alle Eingaben überprüfen und das Verhalten des Agents überwachen, um Missbrauch oder unbeabsichtigte Aktionen zu verhindern.

  • Jailbreak-Tests. Testen Sie immer auf Jailbreak-Versuche. Angreifer zielen in der Regel zuerst auf die Orchestrierungsebene ab, die Anforderungen an das Modell analysiert und weiterleitet. Wenn schädliche Eingaben nicht gefiltert werden, können sie das Modellverhalten gefährden.

  • Inhaltssicherheit. Führen Sie in Chat-basierten Anwendungen sowohl Benutzeraufforderungen als auch den Erdungskontext über einen Inhaltssicherheitsdienst aus.

  • Endpunktsicherheit. Für RESTful-Schnittstellen erzwingen Sie eine starke Authentifizierung und testen Sie gründlich Sicherheitskontrollen, um nicht autorisierten Zugriff zu verhindern.

Es gibt weitere Open Source-Bibliotheken wie Scikit-learn, PyTorchs Torch.Testing-Modul, FairML für Bias- und Fairnesstests und TensorFlow-Modellanalyse für die Modellauswertung.

Kompromiss. Das Testen dieses Codes hat Kostenauswirkungen. Wenn Sie beispielsweise Azure OpenAI verwenden, um Ihren Ableitungsendpunkt zu hosten, ist Stresstests eine gängige Methode, die Ihnen dabei helfen kann, die Grenzwerte des Systems zu ermitteln. Allerdings berechnet Azure OpenAI Gebühren für jede Anfrage, was umfangreiche Stresstests teuer machen kann. Eine Möglichkeit zum Optimieren von Gebühren ist die Verwendung nicht verwendeter PTUs von Azure OpenAI in einer Testumgebung. Alternativ können Sie den Ableitungsendpunkt mithilfe von Tools wie Dev Proxy simulieren.

Testen des deterministischen Verhaltens

In einigen Architekturen können Sie deterministische Logik verwenden, um die Orchestrierung zu ermöglichen. Anstelle eines nicht deterministischen Agent-Orchestrators können Sie z. B. einen Orchestrator verwenden, der statischen Code zum Verwalten des Ausführungsflusses verwendet, z. B. die Interpretation der Benutzerabsicht, das Abfragen des Indexes für das Erding von Daten und das Aufrufen des Modellableitungsendpunkts.

Behandeln Sie diesen Code aus Testgründen wie jede wichtige Systemkomponente: Ausführen von Leistungs-, Zuverlässigkeits- und Funktionstests, insbesondere in der Routinglogik. Wenden Sie Komponententests auf deterministische Komponenten an, insbesondere, wenn Sie Agent-Frameworks wie den semantischen Kernel oder die LangChain von Microsoft verwenden. Diese Tests überprüfen Aufforderungsvorlagen, Toolauswahllogik, Datenformatierung und Entscheidungsstrukturen, isoliert von der Laufzeitvariabilität.

Testen des Ableitungsendpunkts

Inference-Endpunkte machen Ihre generativen Modelle über REST-APIs verfügbar und müssen über die Modellgenauigkeit hinaus getestet werden. Unabhängig davon, ob Sie PaaS-Plattformen oder selbst gehostete Server verwenden, testen Sie den Endpunkt wie jeder andere Endpunkt, um Zuverlässigkeit, Skalierbarkeit und Sicherheit sicherzustellen.

  • Funktions- und Integrationstests. Überprüfen Der Anforderungsverarbeitung, der Antwortstruktur und der Integration in andere Komponenten.

  • Leistungs- und Auslastungstests. Simulieren Sie realistische Bedingungen, um den Durchsatz, die Latenz und die Ressourcennutzung zu bewerten. Konzentrieren Sie sich für PaaS-Ableitungsendpunkte auf Metriken auf Tokenebene (Token/Sek oder Token/Min), die aussagekräftiger sind als herkömmliche Anforderungsgrößen von REST-APIs.

  • Skalierung und GPU-Optimierung. Testen Sie unter unterschiedlicher Auslastung, um die richtige GPU-SKU- oder automatische Skalierungskonfiguration zu ermitteln. Vermeiden Sie die Überlastung, indem Sie die tatsächliche GPU-Nutzung überwachen.

    Kompromiss. GPU-SKUs sind teuer. Es ist wichtig, nach Möglichkeit kontinuierlich zu überprüfen, ob GPU-Ressourcen nicht verwendet und rechteisiert werden. Nachdem Sie Anpassungen vorgenommen haben, testen Sie die Ressourcennutzung, um das Gleichgewicht zwischen Kosteneffizienz und Leistungsoptimierung aufrechtzuerhalten.

  • Fehlerbehandlung. Simulieren sie die Drosselung, z. B. HTTP 429-Fehler, Back-End-Timeouts und dienstlose Verfügbarkeit. Überprüfen Sie, ob Der Client Wiederholungsversuche, Backoffs und Schaltkreise ordnungsgemäß verarbeitet.

  • Sicherheit und Inhaltssicherheit. Führen Sie für öffentliche oder selbst gehostete Endpunkte Penetrationstests durch und überprüfen Sie Zugriffssteuerungen. Verwenden Sie Inhaltsmoderationstools wie Azure AI Content Safety, um unsichere Eingaben/Ausgaben zu testen und zu filtern.

Testen des Erdungsdatenworkflows

Die Relevanz eines generativen KI-Modells hängt von der Qualität und Integrität ihrer Erdungsdaten ab. Erdungsdaten können mithilfe von Datenverarbeitungspipelines an das Modell seediert werden. Diese Daten werden vorverarbeitet, geblockt und indiziert, bevor sie das Modell erreichen. Das Modell fragt den Index während der Benutzerinteraktion in Echtzeit ab, wodurch die Indizierungsleistung und Genauigkeit für die Benutzererfahrung entscheidend ist. Integrieren Sie Tests frühzeitig und pflegen Sie sie während des gesamten Systemlebenszyklus.

Schlecht getestete Datenpipelinen können zu inkonsistenten Ergebnissen und grenzüberschreitenden Bedenken wie Sicherheitsverletzungen führen. Um eine qualitativ hochwertige Erfahrung sicherzustellen, testen Sie den gesamten Datenfluss, einschließlich Quelldokumente, Vorverarbeitung, Orchestrierungslogik und den Index selbst. Wichtige Überlegungen zu Tests umfassen:

  • Funktions- und Integrationstests. Überprüfen Sie, ob alle Daten ordnungsgemäß und vollständig geladen werden. Stellen Sie sicher, dass die Pipeline fehlende, leere oder synthetische Daten wie erwartet behandelt.

  • Indexschemakompatibilität. Testen Sie Schemaänderungen, um die Abwärtskompatibilität sicherzustellen. Alle Feld- oder Dokumentänderungen müssen die Unterstützung für ältere Datenformate beibehalten.

  • Vorverarbeitungs- und Orchestrierungstests. Bei der Erstellung von Erdungsdaten handelt es sich um Vorverarbeitung, Blöcke und Einbettung der Berechnung, die häufig von Tools wie Azure AI Search-Fähigkeiten koordiniert wird. Testen Sie die Orchestrierungspipeline, um sicherzustellen, dass alle Schritte korrekt ausgeführt werden und die resultierenden Daten korrekt und relevant sind.

  • Datenfrischigkeits- und Qualitätsprüfungen. Schließen Sie Tests auf veraltete Daten, Versionsverwaltungskonflikten, synthetische Artefakte und leere oder teilweise Tabellen ein. Aktualisieren Sie Abfragen oder Indexeinstellungen nach Bedarf, um die aktuellsten und saubersten Daten widerzuspiegeln.

  • Indexlasttests. Indizes können sich unter unterschiedlichen Lasten unterschiedlich verhalten. Testen Sie die Abfrageleistung anhand realistischer Nutzungsszenarien, um Entscheidungen über skalierungs-, compute-SKUs und Speicheranforderungen zu informieren.

  • Sicherheitstests. Wenn Dokumente mit Zugriffssteuerelementen partitioniert werden, testen Sie diese Steuerelemente streng. Stellen Sie sicher, dass jeder Benutzer oder jede Rolle nur auf zulässige Inhalte zugreift, um Vertraulichkeit und Compliance aufrechtzuerhalten.

Leitfaden zum Testen von Modellschulungen und Feinabstimmungen

Ähnlich wie generative KI-Modelle verwenden Sie verschiedene Arten von Tests in verschiedenen Phasen des Entwicklungslebenszyklus und in verschiedenen Systemkomponenten und Flüssen. So viel wie praktisch, entwickeln Sie Arbeitsauslastungsressourcen unter Berücksichtigung von Tests. Wenn Sie z. B. Datenmanipulation durchführen und Quelldaten für feature engineering neu gestalten, befolgen Sie bewährte Codierungsmethoden und stellen Sie sicher, dass Sie den Code so strukturieren, dass Tests unterstützt werden.

Auswerten des Modells

Wenden Sie während der Modellschulung eine Baselining-Strategie an, um die Modellqualität zu messen und zu vergleichen. Bewerten Sie die Leistung verschiedener Kombinationen von Modellen, Parametern und Features mithilfe von gut definierten Metriken. Diese Metriken stellen objektive, datengesteuerte Bewertungen bereit, die Sie iterativ über Versionen und Konfigurationen hinweg vergleichen können, um das leistungsstärkste Modell zu identifizieren.

Weitere Informationen finden Sie unter Regressions-/Prognosemetriken.

Zu bewertende und zu testende Daten

Partitionieren Sie Quelldaten in drei verschiedene Datasets: Schulung, Auswertung und Tests. Verwenden Sie das Schulungsdatenset, um das Modell, das Auswertungsdatenset zu optimieren, und das Testdatensatz, um die endgültige Leistung zu überprüfen.

Stellen Sie sicher, dass jedes Dataset qualitativ hochwertige Daten enthält, um Rauschen zu reduzieren. Verwenden Sie Testfälle in Datenpipelinen, um Qualität zu erzwingen und mit synthetischen Daten zu ergänzen, wenn echte Stichproben begrenzt sind, in Bereichen wie der Betrugserkennung, in denen echte Betrugsinstanzen selten sind und begrenzte Daten für schulungen zuverlässige Modelle bereitstellen.

Behalten Sie alle Datasets getrennt und nicht überlappend bei, um die Objektivität aufrechtzuerhalten und Verzerrungen in Vorhersagen zu verhindern. Verwenden Sie keine Schulungsdaten für Auswertungs- oder Auswertungsdaten für Tests.

Testen des Schulungs- und Feinabstimmungsworkflows

  • Datenpipelinetechnologien. Kombinieren Sie Funktions-, Last- und Leistungstests mithilfe synthetischer Daten, um Skalierbarkeit zu bewerten und fundierte Entscheidungen zur Größenanpassung oder Produkteignung, erforderlichen SKUs und Systemintegration zu treffen.

  • Aufnahmeworkflow. Testen Sie ETL/ELT-Pipelines end-to-End, um sicherzustellen, dass sie Daten zuverlässig aufnehmen und dass die Daten qualitativ hoch sind. Testen Sie außerdem die Integration mit allen verbundenen Systemen, und überwachen Sie externe Abhängigkeiten. Verwenden Sie synthetische Daten, um die End-to-End-Verarbeitung zu überprüfen, insbesondere für komplexe oder hochvolumige Workloads.

    Testen Sie geplante Aufträge, um zu überprüfen, ob Die Aufnahmevorgänge rechtzeitig abgeschlossen sind und erwartete Volumes zurückgeben.

  • Datenqualität bei aufnahme. Überprüfen Sie, ob Datenbereinigung und -verarbeitung Tests enthalten, um sicherzustellen, dass die Datenbearbeitung wie beabsichtigt funktioniert. Schließen Sie Überprüfungen auf Vollständigkeit, Aktualität, Schemakonsistenz, Eindeutigkeit und Relevanz ein. Überprüfen Sie außerdem, ob strukturierte Daten ohne Duplikate, fehlende Werte oder ungültige Einträge aufgenommen werden.

  • Feature- und Bezeichnungsintegrität. Überprüfen Sie, ob Features korrekt berechnet und Bezeichnungen korrekt zugewiesen sind, insbesondere bei verwendung komplexer Regeln. Überprüfen Sie, ob Datenlecks vorhanden sind, um zukünftige oder bezeichnungsbasierte Informationen daran zu hindern, Schulungsdaten zu kontaminieren. Stellen Sie außerdem sicher, dass Datenteilungen geeignet sind, um voreingenommene oder überlappende Beispiele zu vermeiden, da sogar subtile Lecks die Modellleistung beeinträchtigen können.

  • Hyperparametertests. Hyperparametertests sind ein iterativer Prozess, bei dem Modellparameter abgestimmt sind, um Genauigkeitsziele basierend auf dem Anwendungsfall Ihrer Workload zu erfüllen. Dazu gehören wiederholt Schulungen zu ausgewählten Daten und die Auswertung von Testdaten zur Überprüfung der Leistung. Beginnen Sie mit einem kleineren Dataset, um das Modellverhalten schnell zu bewerten, und skalieren Sie dann tests auf den vollständigen Satz. Achten Sie auf den Kompromiss zwischen Modellgenauigkeit und rechentechnischen Kosten und Zeit, die für wiederholte Schulungen und Auswertungen erforderlich sind.

  • Codequalität. Wenn Schulungsmodelle benutzerdefinierten Code verwenden, z. B. mit pyTorch-Skript, führen Sie Auslastungstests während der Entwurfsphase aus, um Berechnungsanforderungen auszuwerten und geeignete SKUs auszuwählen. Verwenden Sie Komponententests, um Regressionen während der Entwicklung abzufangen und sich auf manuelle Tests zu verlassen, wenn die Automatisierung nicht machbar ist. Da diese Skripts innerhalb von Workflows ausgeführt werden, fügen Sie Integrationstests hinzu, um sicherzustellen, dass Skripts innerhalb der Pipeline zuverlässig ausgeführt werden.

  • Ableitungsendpunkt. Diese REST-API bietet Zugriff auf das trainierte Machine Learning-Modell zum Erstellen von Vorhersagen. Das Modell wird in einer Umgebung mit einem Endpunkt bereitgestellt, der Echtzeit- oder Batcheingabedaten empfangen, verarbeiten und Vorhersagen zurückgeben kann. Stellen Sie wie jede andere API sicher, dass der Ableitungsendpunkt funktionalen, Leistungs- und Sicherheitstests unterzogen wird, ob es genaue Ergebnisse zurückgibt, erwartete Auslastung verarbeitet und vor Missbrauch sicher bleibt.

  • Testen von Livewebsites. Erweitern Sie funktionsbezogene Tests in das Live-System. Führen Sie geplante Tests aus, um Datenvolumes zu überprüfen, fehlende oder doppelte Datensätze zu erkennen und die Aktualität der Daten zu bestätigen. Verwenden Sie synthetische Daten, um End-to-End-Transformationen und -Logik unter Produktionsbedingungen sicher zu überprüfen. Integrieren Sie A/B-Tests, um neue Erfahrungen auszuwerten und Qualitätsregressionen vor der vollständigen Bereitstellung zu verhindern. Konfigurieren Sie Warnungen, um eine sofortige Untersuchung auszulösen, wenn Tests fehlschlagen.

Integrieren Sie Datentests in CI/CD-Pipelines, indem Sie Komponenten- und Funktionstests automatisieren, insbesondere während Codeänderungen oder Pipelineupdates. Fügen Sie Qualitätsprüfungen vor dem Umtraining hinzu, und verwenden Sie parallele Bereitstellungen, um sicher in der Produktion zu testen. Richten Sie Warnungen für Testfehler oder Aufnahmeanomalien ein.

Hinweis

Tests und Überwachung dienen unterschiedlichen Zwecken. Führen Sie Tests aus, um potenzielle Änderungen am System zu bewerten, in der Regel bevor Sie Änderungen implementieren. Führen Sie die Überwachung kontinuierlich durch, um die Gesamtintegrität des Systems zu bewerten.

Testen auf Modellzerfall

Alle Modelle verschlechtern sich im Laufe der Zeit aufgrund interner und externer Änderungen an der Arbeitsauslastung. Dieser Rückgang der Modellqualität, der als Modellzerfall bezeichnet wird, kann auf zwei Arten auftreten:

  • Die Datenabweichung erfolgt, wenn sich Eingabedaten ändern und das Modell veraltet ist. Beispielsweise wird ein Modell, das Abstimmungsmuster voraussagt, aufgrund der demografischen Veränderungen nach der Neubewertung irrelevant.

  • Konzeptabweichung tritt auf, wenn sich externe Bedingungen ändern, was dazu führt, dass die Vorhersagen des Modells nicht mehr die Realität widerspiegeln. Beispielsweise wird ein Modell, das Verkaufstrends vorhersagt, irrelevant, da sich nach dem Start eines Wettbewerbers ein neues Produkt ändert.

Verwenden Sie zum Erkennen des Verfalls automatisierte Tests, um Vorhersagen mit tatsächlichen Ergebnissen zu vergleichen und mithilfe statistischer Metriken auf Drift zu überwachen. Benutzerfeedback, z. B. die Verwendung von Daumen nach oben/unten, ist auch ein wertvolles Signal zur Identifizierung von Problemen. Wenn potenzieller Verfall erkannt wird, sollte das Betriebsteam Datenwissenschaftler aufklären, die Ursachen und die nächsten Schritte zu untersuchen und zu ermitteln.

Testtools

Berücksichtigen Sie diese Azure-Ressourcen:

Nächste Schritte