Tensorflow.js es un conjunto de herramientas de código abierto desarrollado por Google para ejecutar modelos de aprendizaje automático y redes neuronales de aprendizaje profundo en el navegador o en la plataforma del Node. También permite a los desarrolladores crear modelos de aprendizaje automático en JavaScript y utilizarlos directamente en el navegador o con Node.js.
La función tf.layers.reLU() se utiliza para aplicar la función de activación de la unidad lineal rectificada en los datos.
Sintaxis:
tf.layers.thresholdReLU(args?)
Forma de entrada: arbitraria. Cuando utilice esta capa como capa inicial en un modelo, use la configuración inputShape.
Forma de salida: la salida tiene la misma forma que la entrada.
Parámetros: Acepta el objeto args el cual puede tener las siguientes propiedades:
- args: Es un objeto que contiene las siguientes propiedades:
- maxValue (número): Es el valor de salida más alto posible.
- inputShape: si se establece esta propiedad, se utilizará para construir una capa de entrada que se insertará antes de esta capa.
- batchInputShape: si se establece esta propiedad, se creará e insertará una capa de entrada antes de esta capa.
- batchSize: si no se proporciona batchInputShape y sí inputShape, se utiliza batchSize para crear el batchInputShape.
- dtype: Es el tipo de tipo de datos para esta capa. float32 es el valor predeterminado. Este parámetro se aplica exclusivamente a las capas de entrada.
- nombre: Este es el nombre de la capa y es de tipo string.
- entrenable: si los pesos de esta capa se pueden cambiar por ajuste. Verdadero es el valor predeterminado.
- pesos: Los valores de peso iniciales de la capa.
Devoluciones: Devuelve un objeto (ReLU).
Ejemplo 1:
Javascript
import * as tf from "@tensorflow/tfjs"; const reLULayer = tf.layers.reLU({maxValue: 10}) const x = tf.tensor([11, 8, 9, 12]); reLULayer.apply(x).print();
Producción:
Tensor [10, 8, 9, 10]
Ejemplo 2:
Javascript
import * as tf from "@tensorflow/tfjs"; const reLULayer = tf.layers.reLU({ maxValue: 0.9 }); const x = tf.tensor([1.12, 0.8, 1.9, 0.12, 0.25, 3.4], [2, 3]); reLULayer.apply(x).print();
Producción:
Tensor [[0.9 , 0.8 , 0.9], [0.12, 0.25, 0.9]]
Referencia: https://js.tensorflow.org/api/latest/#layers.reLU
Publicación traducida automáticamente
Artículo escrito por aayushmohansinha y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA