Partager via


summary.mlModel : Résumé d’un modèle Microsoft R Machine Learning.

Résumé d’un modèle Microsoft R Machine Learning.

Utilisation

 ## S3 method for class `mlModel':
summary  (object, top = 20, ...)

Les arguments

object

Objet de modèle retourné à partir d’une analyse MicrosoftML .

top

Spécifie le nombre de coefficients supérieurs à afficher dans le résumé des modèles linéaires tels que rxLogisticRegression et rxFastLinear. Le biais apparaît d’abord, suivi d’autres poids, triés par leurs valeurs absolues dans l’ordre décroissant. Si la valeur est définie NULL, tous les coefficients non nuls sont affichés. Sinon, seuls les premiers top coefficients sont affichés.

...

Arguments supplémentaires à passer à la méthode récapitulative.

Détails

Fournit des informations récapitulatives sur l’appel de fonction d’origine, le
jeu de données utilisé pour entraîner le modèle et les statistiques pour les coefficients dans le modèle.

Valeur

La summary méthode des objets d’analyse MicrosoftML retourne une liste qui inclut l’appel de fonction d’origine et les paramètres sous-jacents utilisés. La coef méthode retourne un vecteur nommé de pondérations, traitement des informations à partir de l’objet modèle.

Pour rxLogisticRegression, les statistiques suivantes peuvent également être présentes dans le résumé lorsqu’elles showTrainingStats sont définies TRUEsur .

training.size

Taille, en termes de nombre de lignes, du jeu de données utilisé pour entraîner le modèle.

deviance

La déviance du modèle est donnée par -2 * ln(L)L est la probabilité d’obtenir les observations avec toutes les caractéristiques incorporées dans le modèle.

null.deviance

La déviance null est donnée par -2 * ln(L0)L0 est la probabilité d’obtenir les observations sans effet des caractéristiques. Le modèle Null inclut le biais s’il en existe un dans le modèle.

aic

L’AIC (critère d’information Akaike) est défini comme 2 * k ``+ devianceétant le k nombre de coefficients du modèle. Le biais compte comme l’un des coefficients. L’AIC est une mesure de la qualité relative du modèle. Elle traite du compromis entre la bonté de l’ajustement du modèle (mesurée par déviance) et la complexité du modèle (mesurée par nombre de coefficients).

coefficients.stats

Il s’agit d’une trame de données contenant les statistiques de chaque coefficient dans le modèle. Pour chaque coefficient, les statistiques suivantes sont affichées. Le biais apparaît dans la première ligne et les coefficients restants dans l’ordre croissant de p-value.

  • Estimer la valeur estimée du coefficient du modèle.
  • Std ErrorThis est la racine carrée de la variance d’échantillon de grande taille de l’estimation du coefficient.
  • z-ScoreWe peut tester par rapport à l’hypothèse null, qui indique que le coefficient doit être égal à zéro, concernant la signification du coefficient en calculant le ratio de son estimation et son erreur standard. Dans l’hypothèse null, si aucune régularisation n’est appliquée, l’estimation du coefficient relatif suit une distribution normale avec une moyenne 0 et un écart type égal à l’erreur standard calculée ci-dessus. Le score z génère le rapport entre l’estimation d’un coefficient et l’erreur standard du coefficient.
  • Pr(>|z|) Il s’agit de la valeur p correspondante pour le test à deux côtés du score z. En fonction du niveau de précision, un indicateur de précision est ajouté à la valeur p. S’il F(x) s’agit de l’CDF de la distribution N(0, 1)normale standard, alors P(>|z|) = 2 - ``2 * F(|z|).

Auteur(s)

Microsoft Corporation Microsoft Technical Support

Voir aussi

rxFastTrees, rxFastForest, rxFastLinear, rxOneClassSvm, rxNeuralNet, rxLogisticRegression.

Exemples


 # Estimate a logistic regression model
 logitModel <- rxLogisticRegression(isCase ~ age + parity + education + spontaneous + induced,
                   transforms = list(isCase = case == 1),
                   data = infert)
 # Print a summary of the model
 summary(logitModel)

 # Score to a data frame
 scoreDF <- rxPredict(logitModel, data = infert, 
     extraVarsToWrite = "isCase")

 # Compute and plot the Radio Operator Curve and AUC
 roc1 <- rxRoc(actualVarName = "isCase", predVarNames = "Probability", data = scoreDF) 
 plot(roc1)
 rxAuc(roc1)

 #######################################################################################
 # Multi-class logistic regression  
 testObs <- rnorm(nrow(iris)) > 0
 testIris <- iris[testObs,]
 trainIris <- iris[!testObs,]
 multiLogit <- rxLogisticRegression(
     formula = Species~Sepal.Length + Sepal.Width + Petal.Length + Petal.Width,
     type = "multiClass", data = trainIris)

 # Score the model
 scoreMultiDF <- rxPredict(multiLogit, data = testIris, 
     extraVarsToWrite = "Species")    
 # Print the first rows of the data frame with scores
 head(scoreMultiDF)
 # Look at confusion matrix
 table(scoreMultiDF$Species, scoreMultiDF$PredictedLabel)

 # Look at the observations with incorrect predictions
 badPrediction = scoreMultiDF$Species != scoreMultiDF$PredictedLabel
 scoreMultiDF[badPrediction,]