Tensorflow.js es un conjunto de herramientas de código abierto desarrollado por Google para ejecutar modelos de aprendizaje automático y redes neuronales de aprendizaje profundo en el navegador o en la plataforma del Node. También permite a los desarrolladores crear modelos de aprendizaje automático en JavaScript y utilizarlos directamente en el navegador o con Node.js.
La función tf.layers.prelu() se utiliza para aplicar la versión parametrizada de una función de activación de unidad lineal rectificada con fugas en los datos.
Sintaxis:
tf.layers.prelu(args?)
Forma de entrada: arbitraria. Cuando utilice esta capa como capa inicial en un modelo, use la configuración inputShape.
Forma de salida: la salida tiene la misma forma que la entrada.
Parámetros: Acepta el objeto args el cual puede tener las siguientes propiedades:
- args: Es un objeto que contiene las siguientes propiedades:
- alphaInitializer: El inicializador para el alfa aprendible.
- alphaRegularizer: para el alfa aprendible, este es el regularizador.
- alphaConstraint: para el alfa aprendible, esta es la restricción.
- sharedAxes: los ejes a lo largo de los cuales se deben compartir los parámetros de aprendizaje de la función de activación
- inputShape: si se establece esta propiedad, se utilizará para construir una capa de entrada que se insertará antes de esta capa.
- batchInputShape: si se establece esta propiedad, se creará e insertará una capa de entrada antes de esta capa.
- batchSize: si no se proporciona batchInputShape y sí inputShape, se utiliza batchSize para crear el batchInputShape.
- dtype: Es el tipo de tipo de datos para esta capa. float32 es el valor predeterminado. Este parámetro se aplica exclusivamente a las capas de entrada.
- nombre: Este es el nombre de la capa y es de tipo string.
- entrenable: si los pesos de esta capa se pueden cambiar por ajuste. Verdadero es el valor predeterminado.
- pesos: Los valores de peso iniciales de la capa.
Devoluciones: Devuelve un objeto (PReLU).
Ejemplo 1:
Javascript
import * as tf from "@tensorflow/tfjs"; const pReLULayer = tf.layers.prelu({ alphaInitializer: 'glorotUniform' }); const x = tf.tensor([11, -8, -9, 12]); pReLULayer.apply(x).print();
Producción:
Tensor [11, -6.450459, -7.2567663, 12]
Ejemplo 2:
Javascript
import * as tf from "@tensorflow/tfjs"; const pReLULayer = tf.layers.prelu({ alphaInitializer: 'glorotUniform' }); const x = tf.tensor([1.12, -0.8, 1.9, 0.12, 0.25, -3.4], [2, 3]); pReLULayer.apply(x).print();
Producción:
Tensor [[1.12, 0.5329878, 1.9 ], [0.12, 0.25 , -3.0655782]]
Referencia: https://js.tensorflow.org/api/latest/#layers.prelu
Publicación traducida automáticamente
Artículo escrito por aayushmohansinha y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA