Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Dieses Thema führt Sie durch die Erstellung eines überprüfungsübergreifenden Berichts mithilfe der Registerkarte "Genauigkeitsdiagramm" im Data Mining-Designer. Allgemeine Informationen dazu, wie ein überprüfungsübergreifender Bericht aussieht, und welche statistischen Maßnahmen es enthält, finden Sie unter Cross-Validation (Analysis Services - Data Mining).
Ein Überprüfungsbericht unterscheidet sich grundlegend von einem Genauigkeitsdiagramm, z. B. einem Liftdiagramm oder einer Klassifikationsmatrix.
Die Kreuzüberprüfung bewertet die Gesamtverteilung von Daten, die in einem Modell oder einer Struktur verwendet werden; Daher geben Sie keinen Testdatensatz an. Kreuzüberprüfung verwendet immer nur die ursprünglichen Daten, die zum Trainieren des Modells oder der Miningstruktur verwendet wurden.
Die Kreuzüberprüfung kann nur in Bezug auf ein einzelnes vorhersagbares Ergebnis durchgeführt werden. Wenn die Struktur Modelle unterstützt, die unterschiedliche vorhersagbare Attribute aufweisen, müssen Sie separate Berichte für jede vorhersagbare Ausgabe erstellen.
Nur Modelle, die mit der aktuell ausgewählten Struktur zusammenhängen, sind für die Kreuzüberprüfung verfügbar.
Wenn die aktuell ausgewählte Struktur eine Kombination aus Clustering- und Nicht-Clustering-Modellen unterstützt, lädt die gespeicherte Prozedur für die Kreuzvalidierung beim Klick auf Ergebnisse abrufen automatisch Modelle, die dieselbe vorhergesagte Spalte haben, und ignoriert Clusteringmodelle, die nicht dasselbe vorhergesagte Attribut teilen.
Sie können einen Überprüfungsbericht für ein Clustermodell erstellen, das nicht über ein vorhersagbares Attribut verfügt, nur, wenn die Miningstruktur keine anderen vorhersagbaren Attribute unterstützt.
Auswählen einer Bergbaustruktur
Öffnen Sie den Data Mining-Designer in SQL Server Data Tools (SSDT).
Öffnen Sie im Projektmappen-Explorer die Datenbank, die die Struktur oder das Modell enthält, für die Sie einen Bericht erstellen möchten.
Doppelklicken Sie auf die Miningstruktur, um die Struktur und die zugehörigen Modelle im Data Mining-Designer zu öffnen.
Klicken Sie auf die Registerkarte "Mining-Genauigkeitsdiagramm" .
Klicken Sie auf die Registerkarte "Kreuzüberprüfung ".
Kreuzvalidierungsoptionen festlegen
Klicken Sie auf der Registerkarte Kreuzvalidierung beim Faltenanzahl auf den Pfeil nach unten, um eine Zahl zwischen 1 und 10 auszuwählen. Der Standardwert ist 10.
Die Faltanzahl stellt die Anzahl der Partitionen dar, die innerhalb des ursprünglichen Datasets erstellt werden. Wenn Sie die Faltanzahl auf 1 festlegen, wird der Schulungssatz ohne Partitionierung verwendet.
Klicken Sie für "Zielattribute" auf den Abwärtspfeil, und wählen Sie eine Spalte aus der Liste aus. Wenn es sich bei dem Modell um ein Clustermodell handelt, wählen Sie #Cluster aus, um anzugeben, dass das Modell kein vorhersagbares Attribut hat. Beachten Sie, dass der Wert , #Cluster, nur verfügbar ist, wenn die Miningstruktur andere Typen von vorhersagbaren Attributen nicht unterstützt.
Sie können pro Bericht nur ein vorhersagbares Attribut auswählen. Standardmäßig werden alle zugehörigen Modelle, die dasselbe vorhersagbare Attribut aufweisen, im Bericht enthalten.
Geben Sie für Max Cases eine Zahl ein, die groß genug ist, um eine repräsentative Stichprobe von Daten bereitzustellen, wenn die Daten unter die angegebene Anzahl von Faltungen aufgeteilt werden. Wenn die Zahl größer als die Anzahl der Fälle im Modellschulungssatz ist, werden alle Fälle verwendet.
Wenn der Schulungsdatensatz sehr groß ist, schränkt das Festlegen des Werts für Max Cases die Gesamtanzahl der verarbeiteten Fälle ein und ermöglicht es dem Bericht, schneller fertig zu werden. Sie sollten max Cases jedoch nicht zu niedrig festlegen, oder es sind möglicherweise nicht genügend Daten für die überprüfungsübergreifende Überprüfung vorhanden.
Geben Sie optional für den Zielstatus den Wert des vorhersehbaren Attributs ein, das Sie modellieren möchten. Wenn beispielsweise die Spalte [Bike Buyer] zwei mögliche Werte aufweist, 1 (Ja) und 2 (Nein), können Sie den Wert 1 eingeben, um die Genauigkeit des Modells nur für das gewünschte Ergebnis zu bewerten.
Hinweis
Wenn Sie keinen Wert eingeben, ist die Option " Zielschwellenwert " nicht verfügbar, und das Modell wird für alle möglichen Werte des vorhersagbaren Attributs bewertet.
Geben Sie optional für den Zielschwellenwert eine Dezimalzahl zwischen 0 und 1 ein, um die Mindestwahrscheinlichkeit anzugeben, dass eine Vorhersage als korrekt gezählt werden muss.
Weitere Tipps zum Festlegen von Wahrscheinlichkeitsschwellenwerten finden Sie unter "Measures" im Cross-Validation Report.
Klicken Sie auf "Ergebnisse abrufen".
Drucken des Überprüfungsberichts
Klicken Sie mit der rechten Maustaste auf den abgeschlossenen Bericht auf der Registerkarte "Kreuzüberprüfung ".
Wählen Sie im Kontextmenü die Option "Drucken" oder " Seitenansicht" aus, um den Bericht zuerst zu überprüfen.
Erstellen einer Kopie des Berichts in Microsoft Excel
Klicken Sie mit der rechten Maustaste auf den abgeschlossenen Bericht auf der Registerkarte "Kreuzüberprüfung ".
Wählen Sie im Kontextmenü "Alle auswählen" aus.
Klicken Sie mit der rechten Maustaste auf den markierten Text, und wählen Sie "Kopieren" aus.
Fügen Sie die Auswahl in eine geöffnete Excel-Arbeitsmappe ein. Wenn Sie die Option "Einfügen " verwenden, wird der Bericht als HTML in Excel eingefügt, wodurch die Zeilen- und Spaltenformatierung erhalten bleibt. Wenn Sie den Bericht mithilfe der Optionen "Inhalte einfügen" für Text oder Unicode-Text einfügen, wird der Bericht im zeilenweise getrennten Format eingefügt.