Partager via


ClassificationModels type

Définit des valeurs pour ClassificationModels.
KnownClassificationModels peuvent être utilisés de manière interchangeable avec ClassificationModels, cette énumération contient les valeurs connues que le service prend en charge.

Valeurs connues prises en charge par le service

LogisticRegression: la régression logistique est une technique de classification fondamentale. Il appartient au groupe de classifieurs linéaires et est un peu similaire à la régression polynomiale et linéaire. La régression logistique est rapide et relativement complexe, et il est pratique d’interpréter les résultats. Bien qu’il s’agit essentiellement d’une méthode de classification binaire, elle peut également être appliquée aux problèmes multiclasses.
SGD: SGD : descente de dégradé stochastique est un algorithme d’optimisation souvent utilisé dans les applications Machine Learning pour trouver les paramètres de modèle qui correspondent au meilleur ajustement entre les sorties prédites et réelles.
MultinomialNaiveBayes: le classifieur Naive Bayes multinomial convient à la classification avec des caractéristiques discrètes (par exemple, le nombre de mots pour la classification de texte). La distribution multinomiale nécessite normalement des nombres de fonctionnalités entières. Toutefois, dans la pratique, les nombres fractionnaires tels que tf-idf peuvent également fonctionner.
BernoulliNaiveBayes: classifieur Naive Bayes pour les modèles Bernoulli multivariés.
SVM: une machine vectorielle de support (SVM) est un modèle Machine Learning supervisé qui utilise des algorithmes de classification pour les problèmes de classification à deux groupes. Après avoir donné des ensembles de modèles SVM de données d’entraînement étiquetées pour chaque catégorie, ils sont en mesure de catégoriser un nouveau texte.
LinearSVM: une machine vectorielle de support (SVM) est un modèle machine learning supervisé qui utilise des algorithmes de classification pour les problèmes de classification à deux groupes. Après avoir donné des ensembles de modèles SVM de données d’entraînement étiquetées pour chaque catégorie, ils sont en mesure de catégoriser un nouveau texte. La machine virtuelle SVM linéaire fonctionne le mieux lorsque les données d’entrée sont linéaires, c’est-à-dire que les données peuvent être facilement classées en dessinant la ligne droite entre les valeurs classifiées sur un graphique tracé.
KNN: l’algorithme K-nearest voisin (KNN) utilise la « similarité des caractéristiques » pour prédire les valeurs des nouveaux points de données, ce qui signifie que le nouveau point de données sera attribué une valeur en fonction de la façon dont il correspond aux points dans le jeu d’entraînement.
DecisionTree: les arbres de décision sont une méthode d’apprentissage supervisée non paramétrique utilisée pour les tâches de classification et de régression. L’objectif est de créer un modèle qui prédit la valeur d’une variable cible en apprenant des règles de décision simples déduites des fonctionnalités de données.
RandomForest: la forêt aléatoire est un algorithme d’apprentissage supervisé. La « forêt » qu’il construit est un ensemble d’arbres de décision, généralement formé avec la méthode « bagging ». L’idée générale de la méthode de bagging est qu’une combinaison de modèles d’apprentissage augmente le résultat global.
ExtremeRandomTrees: Extreme Trees est un algorithme d’apprentissage automatique d’ensemble qui combine les prédictions de nombreux arbres de décision. Il est lié à l’algorithme de forêt aléatoire largement utilisé.
LightGBM: LightGBM est un framework de renforcement de dégradé qui utilise des algorithmes d’apprentissage basé sur des arborescences.
GradientBoosting: la technique de transit des apprenants de semaine dans un apprenant fort est appelée Boosting. Le processus d’algorithme de renforcement de dégradé fonctionne sur cette théorie de l’exécution.
XGBoostClassifier: XGBoost : Algorithme d’optimisation de dégradé extrême. Cet algorithme est utilisé pour les données structurées où les valeurs de colonne cible peuvent être divisées en valeurs de classe distinctes.

type ClassificationModels = string