Diagrama de flujo para modelos básicos de Machine Learning

Las tareas de aprendizaje automático se han dividido en tres categorías, según los comentarios disponibles:

  1. Aprendizaje supervisado: estos son modelos de construcciones humanas basados ​​en entradas y salidas.
  2. Aprendizaje no supervisado: estos son modelos que dependen del aporte humano. No se asignan etiquetas al algoritmo de aprendizaje, el modelo tiene que descubrir la estructura por sí mismo.
  3. Aprendizaje por refuerzo: Estos son los modelos que se alimentan con insumos humanos. No se asignan etiquetas al algoritmo de aprendizaje. El algoritmo aprende por las recompensas y penalizaciones otorgadas.

Los algoritmos que se pueden utilizar para cada una de las categorías son:

Algoritmo supervisado sin supervisión Reforzamiento 
Lineal 1 0 0
Logístico 1 0 0
K-medias 1 1 0
Detección de anomalías 1 1 0
Red neuronal 1 1 1
KNN 1 0 0
Camiseta de decisión 1 0 0
Bosque aleatorio 1 0 0
MVS 1 0 0
bayesiana ingenua 1 0 0
 

Las funciones de aprendizaje automático y los usos para diversas tareas se proporcionan en la siguiente tabla. Para saber más sobre los Algoritmos haz clic aquí.

Categoría

Algoritmo

Función

Usar

Regresión básica Lineal modelo_lineal.RegresiónLineal() Muchos datos numéricos.
Logístico modelo_lineal.Regresión Logística() La variable objetivo es categórica
Análisis de conglomerados K-medias clúster.KMeans() Datum similar en grupos basados ​​en centroides
Detección de anomalías covarianza.EllipticalEnvelope() Encontrar valores atípicos a través de la agrupación
Clasificación Red neuronal red_neural.MLPClassifier() Relaciones complejas. Propenso al ajuste excesivo.
K-NN vecinos.KNeighborsClassifier() Membresía grupal basada en la proximidad
Camiseta de decisión árbol.DecisionTreeClassifier() Si/entonces/si no. Datos no contiguos. También puede ser regresión.
Bosque aleatorio conjunto.RandomForestClassifier() Encuentra la mejor división al azar. También puede ser regresión
MVS

svm.SVC() 

svm.SVC lineal()

Clasificador de margen máximo. Fundamental. Algoritmo de ciencia de datos
bayesiana ingenua NB Gaussiano() NB Multinominal() NB Bernoulli() Actualización de conocimientos paso a paso con nueva información
Reducción de características T-DISTRIB Embebido estocástico NEIB múltiple.TSNE() Datos visuales de alta dimensión. Convertir similitud en probabilidades conjuntas
Análisis de componentes principales descomposición.PCA() Destilar el espacio de características en componentes que describan la mayor variación
Análisis de correlación canónica descomposición.CCA() Dar sentido a las arrays de correlación cruzada
Análisis Discriminante Lineal lda.LDA() Combinación lineal de características que separa clases

El diagrama de flujo que se proporciona a continuación lo ayudará a brindar una guía aproximada de cada estimador que lo ayudará a saber más sobre la tarea y las formas de resolverla utilizando varias técnicas de ML.

Publicación traducida automáticamente

Artículo escrito por mysticpeaks y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *