Red neuronal profunda con L – Capas

Este artículo tiene como objetivo implementar una red neuronal profunda con un número arbitrario de capas ocultas, cada una de las cuales contiene un número diferente de neuronas. Implementaremos esta red neuronal utilizando algunas funciones auxiliares y, por último, combinaremos estas funciones para crear el modelo de red neuronal de capa L. L: estructura de … Continue reading «Red neuronal profunda con L – Capas»

Inception-V4 e Inception-ResNets

Inception V4 fue presentado en combinación con Inception-ResNet por los investigadores de Google en 2016. El objetivo principal del documento era reducir la complejidad del modelo Inception V3 que brinda la precisión más avanzada en el desafío ILSVRC 2015. Este documento también explora la posibilidad de utilizar redes residuales en el modelo Inception. Este modelo  … Continue reading «Inception-V4 e Inception-ResNets»

Entrenamiento de Red Neuronal Convolucional (CNN) en TensorFlow

En este artículo, implementaremos y entrenaremos una red neuronal convolucional CNN utilizando TensorFlow, una biblioteca de aprendizaje automático masivo. Ahora, en este artículo, vamos a trabajar en un conjunto de datos llamado ‘rock_paper_sissors’ en el que simplemente debemos clasificar los signos de las manos como piedra, papel o tijera.  Implementación paso a paso Paso 1: … Continue reading «Entrenamiento de Red Neuronal Convolucional (CNN) en TensorFlow»

Explicación de redes de memoria a largo plazo

Requisitos previos: redes neuronales recurrentes  Para resolver el problema de los gradientes que desaparecen y explotan en una red neuronal recurrente profunda, se desarrollaron muchas variaciones. Uno de los más famosos es la Red de Memoria a Largo Corto Plazo (LSTM). En concepto, una unidad recurrente LSTM trata de “recordar” todo el conocimiento pasado que … Continue reading «Explicación de redes de memoria a largo plazo»

Funciones de activación – Part 1

Para ponerlo en términos simples, una neurona artificial calcula la ‘suma ponderada’ de sus entradas y agrega un sesgo, como se muestra en la figura a continuación por la entrada neta. Matemáticamente, Ahora, el valor de la entrada neta puede ser cualquier cosa, desde -inf hasta +inf. La neurona realmente no sabe cómo vincularse al … Continue reading «Funciones de activación – Part 1»

Máscara R-CNN | ML

R-CNN y YOLO más rápidos son buenos para detectar objetos en la imagen de entrada. También tienen un tiempo de detección muy bajo y se pueden utilizar en sistemas en tiempo real. Sin embargo, hay un desafío que no se puede abordar con la detección de objetos, el cuadro delimitador generado por YOLO y Faster … Continue reading «Máscara R-CNN | ML»

Codificador automático contractivo (CAE)

Autoencoder contractivo fue propuesto por los investigadores de la Universidad de Toronto en 2011 en el documento. La idea detrás de esto es hacer que los codificadores automáticos sean resistentes a pequeños cambios en el conjunto de datos de entrenamiento. Para hacer frente al desafío anterior que se plantea en los codificadores automáticos básicos, los … Continue reading «Codificador automático contractivo (CAE)»

¿Cómo crear Modelos en Keras?

Keras es una API de código abierto que se utiliza para resolver una variedad de problemas modernos de aprendizaje automático y aprendizaje profundo. Permite al usuario centrarse más en el aspecto lógico del aprendizaje profundo que en los aspectos de codificación bruta. Keras es una API extremadamente poderosa que proporciona una escalabilidad, flexibilidad y facilidad … Continue reading «¿Cómo crear Modelos en Keras?»