Ajuste de hiperparámetros usando GridSearchCV y KerasClassifier

El ajuste de hiperparámetros se realiza para aumentar la eficiencia de un modelo ajustando los parámetros de la red neuronal. Algunas API de scikit-learn como GridSearchCV y RandomizedSearchCV se utilizan para realizar ajustes de hiperparámetros.  En este artículo, aprenderá a usar GridSearchCV para ajustar los hiperparámetros de Keras Neural Networks.  Acercarse:  Envolveremos los modelos de … Continue reading «Ajuste de hiperparámetros usando GridSearchCV y KerasClassifier»

Una breve introducción a la optimización de políticas proximales

La optimización de políticas proximales (PPO) es un avance reciente en el campo del aprendizaje reforzado, que proporciona una mejora en la optimización de políticas de región de confianza (TRPO). Este algoritmo se propuso en 2017 y mostró un rendimiento notable cuando OpenAI lo implementó. Para comprender y apreciar el algoritmo, primero debemos comprender qué … Continue reading «Una breve introducción a la optimización de políticas proximales»

Implementación de un clasificador de imágenes basado en CNN usando PyTorch

Introducción: Introducidas en la década de 1980 por Yann LeCun, las redes neuronales de convolución (también llamadas CNN o ConvNet) han recorrido un largo camino. Las arquitecturas basadas en CNN, que se emplean para tareas simples de clasificación de dígitos, se están utilizando de manera muy profunda en muchas tareas relacionadas con el aprendizaje profundo … Continue reading «Implementación de un clasificador de imágenes basado en CNN usando PyTorch»

Mapas autoorganizados – Kohonen Maps

Self Organizing Map (o Kohonen Map o SOM) es un tipo de red neuronal artificial que también se inspira en modelos biológicos de sistemas neuronales de la década de 1970. Sigue un enfoque de aprendizaje no supervisado y entrenó su red a través de un algoritmo de aprendizaje competitivo. SOM se utiliza para técnicas de … Continue reading «Mapas autoorganizados – Kohonen Maps»

LSTM – Derivación de la propagación hacia atrás a través del tiempo

LSTM (memoria a largo plazo a corto plazo) es un tipo de RNN (red neuronal recurrente), que es un famoso algoritmo de aprendizaje profundo que es muy adecuado para hacer predicciones y clasificaciones con un sabor del tiempo. En este artículo, derivaremos la propagación hacia atrás del algoritmo a través del tiempo y encontraremos el … Continue reading «LSTM – Derivación de la propagación hacia atrás a través del tiempo»

Diferencia entre una red neuronal y un sistema de aprendizaje profundo

Desde su creación a fines de la década de 1950, la inteligencia artificial y el aprendizaje automático han recorrido un largo camino. Estas tecnologías se han vuelto bastante complejas y avanzadas en los últimos años. Si bien los avances tecnológicos en el dominio de la ciencia de datos son encomiables, han resultado en una avalancha … Continue reading «Diferencia entre una red neuronal y un sistema de aprendizaje profundo»

ML: guardar un modelo de aprendizaje profundo en Keras

El entrenamiento de un modelo de red neuronal/aprendizaje profundo suele llevar mucho tiempo, especialmente si la capacidad del hardware del sistema no cumple con los requisitos. Una vez realizado el entrenamiento, guardamos el modelo en un archivo. Para reutilizar el modelo en un momento posterior para hacer predicciones, cargamos el modelo guardado. A través de … Continue reading «ML: guardar un modelo de aprendizaje profundo en Keras»

Diferencia entre inteligencia artificial, aprendizaje automático y aprendizaje profundo

Inteligencia artificial: la inteligencia artificial es básicamente el mecanismo para incorporar la inteligencia humana en las máquinas a través de un conjunto de reglas (algoritmo). AI es una combinación de dos palabras: «Artificial» que significa algo hecho por humanos o cosas no naturales e «Inteligencia» que significa la capacidad de comprender o pensar en consecuencia. … Continue reading «Diferencia entre inteligencia artificial, aprendizaje automático y aprendizaje profundo»

Técnicas de inicialización de pesos para redes neuronales profundas

Al construir y entrenar redes neuronales, es crucial inicializar los pesos de manera adecuada para garantizar un modelo con alta precisión. Si los pesos no se inicializan correctamente, puede dar lugar al problema del gradiente de fuga o al problema del gradiente explosivo. Por lo tanto, seleccionar una estrategia de inicialización de peso adecuada es … Continue reading «Técnicas de inicialización de pesos para redes neuronales profundas»

Red neuronal profunda con propagación hacia adelante y hacia atrás desde cero – Python

Este artículo tiene como objetivo implementar una red neuronal profunda desde cero. Implementaremos una red neuronal profunda que contiene una capa oculta con cuatro unidades y una capa de salida. La implementación irá desde cero y se implementarán los siguientes pasos. Algoritmo: 1. Visualizing the input data 2. Deciding the shapes of Weight and bias … Continue reading «Red neuronal profunda con propagación hacia adelante y hacia atrás desde cero – Python»