Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Avant de pouvoir mesurer la précision d’un modèle d’exploration de données, vous devez déterminer le résultat que vous souhaitez évaluer. La plupart des modèles d’exploration de données nécessitent que vous choisissiez au moins une colonne à utiliser comme attribut prédictible lorsque vous créez le modèle. Par conséquent, lorsque vous testez la précision du modèle, vous devez généralement sélectionner cet attribut à tester.
La liste suivante décrit quelques considérations supplémentaires pour choisir l’attribut prédictible à utiliser dans les tests :
Certains types de modèles d’exploration de données peuvent prédire plusieurs attributs, tels que des réseaux neuronaux, qui peuvent explorer les relations entre de nombreux attributs.
D’autres types de modèles d’exploration de données, tels que les modèles de clustering, n’ont pas nécessairement d’attribut prévisible. Les modèles de clustering ne peuvent pas être testés, sauf s’ils ont un attribut prévisible.
Pour créer un nuage de points ou mesurer la précision d’un modèle de régression, vous devez choisir un attribut prédictible continu comme résultat. Dans ce cas, vous ne pouvez pas spécifier de valeur cible. Si vous créez autre chose qu’un nuage de points, la colonne de structure de données sous-jacente doit également avoir un type de contenu discret ou discrétisé.
Si vous choisissez un attribut discret comme résultat prévisible, vous pouvez également spécifier une valeur cible ou laisser le champ Prédire la valeur vide. Si vous incluez une valeur de prédiction, le graphique mesure uniquement l’efficacité du modèle pour prédire la valeur cible. Si vous ne spécifiez pas de résultat cible, le modèle est mesuré pour sa précision dans la prédiction de tous les résultats.
Si vous souhaitez inclure plusieurs modèles et les comparer dans un graphique de précision unique, tous les modèles doivent utiliser la même colonne prévisible.
Lorsque vous créez un rapport de validation croisée, Analysis Services analyse automatiquement tous les modèles qui ont le même attribut prédictible.
Lorsque l’option Synchroniser les colonnes et les valeurs de prédiction est sélectionnée, Analysis Services choisit automatiquement les colonnes prévisibles qui ont les mêmes noms et les mêmes types de données correspondants. Si vos colonnes ne répondent pas à ces critères, vous pouvez désactiver cette option et choisir manuellement une colonne prévisible. Vous devrez peut-être le faire si vous testez le modèle avec un jeu de données externe qui a des colonnes différentes du modèle. Toutefois, si vous choisissez une colonne avec le mauvais type de données, vous obtiendrez une erreur ou des résultats incorrects.
Spécifier le résultat à prédire
Double-cliquez sur la structure d’exploration de données pour l’ouvrir dans le Concepteur d’exploration de données.
Sélectionnez l’onglet Graphique de précision de minage.
Sélectionnez l’onglet Sélection d’entrée .
Sous l’onglet Sélection d’entrée , sous Nom de colonne prévisible, sélectionnez une colonne prévisible pour chaque modèle que vous incluez dans le graphique.
Les colonnes du modèle d’exploration de données disponibles dans la zone Nom de colonne prédictible ne sont que celles dont le type d’utilisation est défini sur Predict ou Predict Only.
Si vous souhaitez déterminer le gain d'un modèle, vous devez sélectionner une valeur de résultat spécifique à mesurer, en choisissant dans la liste Valeur prédite.
Voir aussi
Choisir et mapper des données de test de modèle
Choisir un type de graphique de précision et définir des options de graphique