Zu Hauptinhalt wechseln

Dieser Browser wird nicht mehr unterstützt.

Führen Sie ein Upgrade auf Microsoft Edge durch, um die neuesten Features, Sicherheitsupdates und den technischen Support zu nutzen.

Microsoft Edge herunterladen Weitere Informationen zu Internet Explorer und Microsoft Edge
Auf Englisch lesen

Freigeben über

Facebook x.com LinkedIn E-Mail

Microsoft AI Red Team

Erfahren Sie, wie Sie die KI Ihrer Organisation mit Anleitungen und bewährten Methoden aus dem branchenführenden Microsoft KI Red Team schützen.

Über KI Red Team

Übersicht

  • Was ist KI Red Teaming und wie baut Microsoft eine sicherere KI auf?

Schrittanleitung

  • Leitfaden zum Erstellen von KI Red Teams für LLMs

Referenz

  • Verantwortungsvolle KI-Tools und -Praktiken
  • Verantwortungsvolle KI-Standards und Folgenabschätzungen

Vorbereitung

Übersicht

  • Microsofts Open Automation Framework zu Red Team Generative KI Systems (PyRIT)

Schrittanleitung

  • PyRIT-Anleitung

Referenz

  • KI-Risikobewertung für ML-Ingenieure
  • KI Modell der gemeinsamen Zuständigkeit

Grundlegendes zu Bedrohungen

Schrittanleitung

  • Leitfaden zur Entwickler-Bedrohungsmodellierung für ML-Systeme

Konzept

  • Taxonomie für Machine Learning-Fehler

Referenz

  • Bug Bar zur Selektierung von Angriffen auf ML-Systeme

Erkunden sicherer Lösungen

Konzept

  • Methodik zur Sicherheitsausrichtung der Phi-3-Reihe von Sprachmodellen

Referenz

  • Sicherheit und Governance in Unternehmen für Azure Machine Learning
  • Was ist Content Safety von Azure KI?
  • Strategien zur Schadensminderung mit Azure KI
  • Überwachen der Qualität und Sicherheit bereitgestellter Promptflowanwendungen

Lehren

Training

  • KI-Sicherheitsschulung

Übersicht

  • Lehren aus red teaming 100 generative KI-Produkten
de-de
Ihre Datenschutzoptionen
  • KI-Haftungsausschluss
  • Frühere Versionen
  • Blog
  • Mitwirken
  • Datenschutz
  • Nutzungsbedingungen
  • Impressum
  • Marken
  • © Microsoft 2025