Para especificar la arquitectura de una red neuronal con todas las capas conectadas secuencialmente, cree una array de capas directamente. Para especificar la arquitectura de una red donde las capas pueden tener múltiples entradas o salidas, use un objeto LayerGraph. Utilice las siguientes funciones para crear diferentes tipos de capas.
Capas de entrada:
FUNCIÓN |
DESCRIPCIÓN |
imageInputLayer |
Entradas de imágenes a una red
Aplica normalización de datos
.
|
secuenciaInputLayer |
Introduce datos de secuencia en una red.
|
Capas de aprendizaje:
FUNCIÓN |
DESCRIPCIÓN |
convolución2dLayer |
Aplica filtros deslizantes a la entrada.
Convoluciona la entrada moviendo los filtros a lo largo de la entrada vertical y horizontalmente y calculando el producto escalar de los pesos y la entrada, y luego agregando un término de sesgo.
|
transposedConv2dLayer |
Mejora los mapas de características.
|
capa totalmente conectada |
Multiplica la entrada por una array de peso y luego agrega un vector de sesgo
.
|
lstmLayer |
Es una capa de red neuronal recurrente (RNN) que permite admitir series temporales y datos de secuencia en una red.
Realiza interacciones aditivas, que pueden ayudar a mejorar el flujo de gradiente en secuencias largas durante el entrenamiento.
Son los más adecuados para aprender dependencias a largo plazo.
.
|
Capas de activación:
FUNCIÓN |
DESCRIPCIÓN |
reluLayer |
Realiza una operación de umbral para cada elemento de la entrada, donde cualquier valor menor que cero se establece en cero.
|
fugaReluLayer |
Realiza una operación de umbral simple, donde cualquier valor de entrada menor que cero se multiplica por un escalar fijo
|
recortadaReluLayer |
Realiza una operación de umbral simple, donde cualquier valor de entrada menor que cero se establece en cero.
Cualquier valor por encima del techo de recorte se establece en ese techo de recorte.
|
Capas de Normalización y Eliminación:
FUNCIÓN |
DESCRIPCIÓN |
capa de normalización por lotes |
Normaliza cada canal de entrada en un mini lote.
La capa primero normaliza las activaciones de cada canal restando la media del minilote y dividiéndola por la desviación estándar del minilote.
Luego, la capa cambia la entrada por un desplazamiento aprendible y la escala por un factor de escala aprendible.
Utilice capas de normalización por lotes entre capas convolucionales y no linealidades, como capas ReLU, para acelerar el entrenamiento de redes neuronales convolucionales y reducir la sensibilidad a la inicialización de la red.
|
crossChannelNormalizationLayer |
Lleva a cabo la normalización por canales.
|
dropoutLayer |
Establece aleatoriamente los elementos de entrada en cero con una probabilidad dada.
|
Capas de agrupación:
FUNCIÓN |
DESCRIPCIÓN |
promedioPooling2dLayer |
Realiza un muestreo descendente dividiendo la entrada en regiones de agrupación rectangulares y calculando los valores promedio de cada región.
|
maxPooling2dLayer |
Realiza un muestreo descendente dividiendo la entrada en regiones de agrupación rectangulares y calculando el máximo de cada región.
|
maxUnpooling2dLayer |
Desagrupa la salida de una capa de agrupación máxima.
|
Capas combinadas:
FUNCIÓN |
DESCRIPCIÓN |
capa adicional |
Agrega múltiples entradas por elementos.
Especifique el número de entradas a la capa cuando la cree.
Las entradas tienen los nombres ‘in1’, ‘in2’, …, ‘inN’, donde N es el número de entradas.
Use los nombres de entrada cuando conecte o desconecte la capa a otras capas usando connectLayers o desconectarLayers.
Todas las entradas a una capa adicional deben tener la misma dimensión.
|
profundidadConcatenaciónCapa |
Toma múltiples entradas que tienen la misma altura y anchura.
Los concatena a lo largo de la tercera dimensión.
|
Capas de salida:
FUNCIÓN |
DESCRIPCIÓN |
softmaxLayer |
Aplica una función softmax a la entrada.
|
clasificaciónCapa |
Contiene el nombre de la función de pérdida que utiliza el software para entrenar la red para la clasificación multiclase.
.
|
capa de regresión |
Contiene el nombre de la función de pérdida que utiliza el software para entrenar la red para la regresión y los nombres de las respuestas.
|
Publicación traducida automáticamente
Artículo escrito por Urvi Singh y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA