Prerrequisitos: Introducción a ANN | Conjunto-1 , Conjunto-2 , Conjunto-3
Una red neuronal artificial (ANN) es un paradigma de procesamiento de información inspirado en el cerebro. Las RNA, como las personas, aprenden con ejemplos. Una ANN se configura para una aplicación específica, como el reconocimiento de patrones o la clasificación de datos, a través de un proceso de aprendizaje. El aprendizaje implica en gran medida ajustes en las conexiones sinápticas que existen entre las neuronas.
El modelo de una red neuronal artificial puede ser especificado por tres entidades:
- Interconexiones
- Funciones de activación
- Reglas de aprendizaje
Interconexiones:
La interconexión se puede definir como la forma en que los elementos de procesamiento (neurona) en ANN están conectados entre sí. Por lo tanto, los arreglos de estos elementos de procesamiento y la geometría de las interconexiones son muy esenciales en ANN.
Estos arreglos siempre tienen dos capas que son comunes a todas las arquitecturas de red, la capa de entrada y la capa de salida donde la capa de entrada amortigua la señal de entrada y la capa de salida genera la salida de la red. La tercera capa es la capa Oculta, en la que las neuronas no se mantienen ni en la capa de entrada ni en la capa de salida. Estas neuronas están ocultas para las personas que interactúan con el sistema y actúan como una caja negra para ellas. Al aumentar las capas ocultas con neuronas, se puede aumentar la potencia computacional y de procesamiento del sistema, pero al mismo tiempo los fenómenos de entrenamiento del sistema se vuelven más complejos.
Existen cinco tipos básicos de arquitectura de conexión neuronal:
- Red de retroalimentación de una sola capa
- Red feed-forward multicapa
- Node único con su propia retroalimentación
- Red recurrente de una sola capa
- Red recurrente multicapa
1. Red de retroalimentación de una sola capa
En este tipo de red, tenemos solo dos capas, la capa de entrada y la capa de salida, pero la capa de entrada no cuenta porque no se realiza ningún cálculo en esta capa. La capa de salida se forma cuando se aplican diferentes pesos a los Nodes de entrada y se toma el efecto acumulativo por Node. Después de esto, las neuronas dan colectivamente la capa de salida para calcular las señales de salida.
2. Red feed-forward multicapa
Esta capa también tiene una capa oculta que es interna a la red y no tiene contacto directo con la capa externa. La existencia de una o más capas ocultas permite que la red sea más sólida desde el punto de vista computacional, una red de retroalimentación debido al flujo de información a través de la función de entrada y los cálculos intermedios utilizados para determinar la salida Z. No hay conexiones de retroalimentación en las que las salidas de el modelo se retroalimenta a sí mismo.
3. Node único con su propia retroalimentación
Cuando las salidas se pueden volver a dirigir como entradas a la misma capa oa los Nodes de la capa anterior, se generan redes de retroalimentación. Las redes recurrentes son redes de retroalimentación con bucles cerrados. La figura anterior muestra una sola red recurrente que tiene una sola neurona con retroalimentación a sí misma.
4. Red recurrente de una sola capa
La red anterior es una red de una sola capa con una conexión de retroalimentación en la que la salida del elemento de procesamiento se puede dirigir hacia sí mismo, hacia otro elemento de procesamiento o hacia ambos. Una red neuronal recurrente es una clase de redes neuronales artificiales donde las conexiones entre Nodes forman un gráfico dirigido a lo largo de una secuencia. Esto le permite exhibir un comportamiento temporal dinámico durante una secuencia de tiempo. A diferencia de las redes neuronales feedforward, las RNN pueden usar su estado interno (memoria) para procesar secuencias de entradas.
5. Red recurrente multicapa
En este tipo de red, la salida del elemento de procesamiento se puede dirigir al elemento de procesamiento en la misma capa y en la capa anterior formando una red recurrente multicapa. Realizan la misma tarea para cada elemento de una secuencia, y la salida depende de los cálculos anteriores. No se necesitan entradas en cada paso de tiempo. La característica principal de una Red Neuronal Recurrente es su estado oculto, que captura alguna información sobre una secuencia.
Publicación traducida automáticamente
Artículo escrito por Abhishek rajput y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA