Las tareas de aprendizaje automático se han dividido en tres categorías, según los comentarios disponibles:
- Aprendizaje supervisado: estos son modelos de construcciones humanas basados en entradas y salidas.
- Aprendizaje no supervisado: estos son modelos que dependen del aporte humano. No se asignan etiquetas al algoritmo de aprendizaje, el modelo tiene que descubrir la estructura por sí mismo.
- Aprendizaje por refuerzo: Estos son los modelos que se alimentan con insumos humanos. No se asignan etiquetas al algoritmo de aprendizaje. El algoritmo aprende por las recompensas y penalizaciones otorgadas.
Los algoritmos que se pueden utilizar para cada una de las categorías son:
Algoritmo | supervisado | sin supervisión | Reforzamiento |
---|---|---|---|
Lineal | 1 | 0 | 0 |
Logístico | 1 | 0 | 0 |
K-medias | 1 | 1 | 0 |
Detección de anomalías | 1 | 1 | 0 |
Red neuronal | 1 | 1 | 1 |
KNN | 1 | 0 | 0 |
Camiseta de decisión | 1 | 0 | 0 |
Bosque aleatorio | 1 | 0 | 0 |
MVS | 1 | 0 | 0 |
bayesiana ingenua | 1 | 0 | 0 |
Las funciones de aprendizaje automático y los usos para diversas tareas se proporcionan en la siguiente tabla. Para saber más sobre los Algoritmos haz clic aquí.
Categoría |
Algoritmo |
Función |
Usar |
---|---|---|---|
Regresión básica | Lineal | modelo_lineal.RegresiónLineal() | Muchos datos numéricos. |
Logístico | modelo_lineal.Regresión Logística() | La variable objetivo es categórica | |
Análisis de conglomerados | K-medias | clúster.KMeans() | Datum similar en grupos basados en centroides |
Detección de anomalías | covarianza.EllipticalEnvelope() | Encontrar valores atípicos a través de la agrupación | |
Clasificación | Red neuronal | red_neural.MLPClassifier() | Relaciones complejas. Propenso al ajuste excesivo. |
K-NN | vecinos.KNeighborsClassifier() | Membresía grupal basada en la proximidad | |
Camiseta de decisión | árbol.DecisionTreeClassifier() | Si/entonces/si no. Datos no contiguos. También puede ser regresión. | |
Bosque aleatorio | conjunto.RandomForestClassifier() | Encuentra la mejor división al azar. También puede ser regresión | |
MVS |
svm.SVC() svm.SVC lineal() |
Clasificador de margen máximo. Fundamental. Algoritmo de ciencia de datos | |
bayesiana ingenua | NB Gaussiano() NB Multinominal() NB Bernoulli() | Actualización de conocimientos paso a paso con nueva información | |
Reducción de características | T-DISTRIB Embebido estocástico NEIB | múltiple.TSNE() | Datos visuales de alta dimensión. Convertir similitud en probabilidades conjuntas |
Análisis de componentes principales | descomposición.PCA() | Destilar el espacio de características en componentes que describan la mayor variación | |
Análisis de correlación canónica | descomposición.CCA() | Dar sentido a las arrays de correlación cruzada | |
Análisis Discriminante Lineal | lda.LDA() | Combinación lineal de características que separa clases |
El diagrama de flujo que se proporciona a continuación lo ayudará a brindar una guía aproximada de cada estimador que lo ayudará a saber más sobre la tarea y las formas de resolverla utilizando varias técnicas de ML.
Publicación traducida automáticamente
Artículo escrito por mysticpeaks y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA