Verwalten einer verantwortungsvollen generativen KI-Lösung
Nachdem Sie potenzielle Schäden zuordnen, eine Möglichkeit entwickeln, ihre Anwesenheit zu messen und Entschärfungen für sie in Ihrer Lösung zu implementieren, können Sie ihre Lösung freigeben. Bevor Sie dies tun, gibt es einige Überlegungen, mit denen Sie eine erfolgreiche Veröffentlichung und nachfolgende Vorgänge sicherstellen können.
Vollständige Reviews der Vorabversion
Bevor Sie eine generative KI-Lösung veröffentlichen, identifizieren Sie die verschiedenen Complianceanforderungen in Ihrer Organisation und Branche, und stellen Sie sicher, dass die entsprechenden Teams die Möglichkeit erhalten, das System und seine Dokumentation zu überprüfen. Zu den allgemeinen Complianceüberprüfungen gehören:
- Rechtliches
- Datenschutz
- Sicherheit
- Zugänglichkeit
Freigeben und Betreiben der Lösung
Eine erfolgreiche Veröffentlichung benötigt etwas Planung und Vorbereitung. Berücksichtigen Sie die folgenden Richtlinien:
- Entwickeln Sie einen phasenweisen Bereitstellungsplan, mit dem Sie die Lösung zunächst für eingeschränkte Benutzergruppen freigeben können. Mit diesem Ansatz können Sie Feedback sammeln und Probleme identifizieren, bevor Sie sie für ein breiteres Publikum freigeben.
- Erstellen Sie einen Plan zur Reaktion auf Vorfälle, der Schätzungen der Zeit umfasst, die für die Reaktion auf unerwartete Vorfälle gedauert hat.
- Erstellen Sie einen Rollbackplan, der die Schritte zum Zurücksetzen der Lösung auf einen vorherigen Zustand definiert, wenn ein Vorfall auftritt.
- Implementieren Sie die Funktion, um schädliche Systemantworten sofort zu blockieren, wenn sie entdeckt werden.
- Implementieren Sie eine Funktion, um bestimmte Benutzer, Anwendungen oder Client-IP-Adressen im Falle eines Systemmissbrauchs zu blockieren.
- Implementieren Sie eine Möglichkeit für Benutzer, Feedback zu geben und Probleme zu melden. Ermöglichen Sie benutzern insbesondere, generierte Inhalte als "ungenau", "unvollständig", "schädlich", "anstößig" oder anderweitig problematisch zu melden.
- Verfolgen Sie Telemetriedaten, mit denen Sie die Benutzerzufriedenheit ermitteln und Funktionslücken oder Herausforderungen der Benutzerfreundlichkeit erkennen können. Die gesammelte Telemetrie sollte den Datenschutzgesetzen und den Richtlinien und Verpflichtungen Ihrer eigenen Organisation an den Datenschutz der Benutzer entsprechen.
Nutzen Sie Microsoft Foundry Content Safety
Mehrere Azure AI-Ressourcen bieten eine integrierte Analyse der inhalte, mit der sie arbeiten, einschließlich Sprache, Vision und Azure OpenAI mithilfe von Inhaltsfiltern.
Microsoft Foundry Content Safety bietet mehr Features, die sich darauf konzentrieren, KI und Copiloten vor Risiken zu schützen. Diese Funktionen umfassen das Erkennen unangemessener oder anstößiger Sprache sowohl von Eingaben als auch von generierten Inhalten und das Erkennen riskanter oder unangemessener Eingaben.
Funktionen der Foundry Content Safety umfassen:
| Merkmal | Funktionalität |
|---|---|
| Prompt Shields | Sucht nach dem Risiko von Benutzereingabeangriffen auf Sprachmodelle |
| Groundedness-Erkennung | Erkennt, ob Textantworten auf den Inhalten eines Benutzers basieren |
| Erkennung von geschütztem Material | Sucht nach bekannten urheberrechtlich geschützten Inhalten |
| Benutzerdefinierte Kategorien | Definieren Sie benutzerdefinierte Kategorien für neue oder aufkommende Muster. |
Details und Schnellstarts zur Verwendung von Foundry Content Safety finden Sie auf den Dokumentationsseiten für den Dienst.