Tensorflow.js es un conjunto de herramientas de código abierto desarrollado por Google para ejecutar modelos de aprendizaje automático y redes neuronales de aprendizaje profundo en el navegador o en la plataforma del Node. También permite a los desarrolladores crear modelos de aprendizaje automático en JavaScript y utilizarlos directamente en el navegador o con Node.js.
La función tf.layers.thresholdedReLU() se utiliza para aplicar la función de activación de la unidad lineal rectificada de umbral en los datos.
Sintaxis:
tf.layers.thresholdedReLU(args?)
Forma de entrada: arbitraria. Cuando utilice esta capa como capa inicial en un modelo, use la configuración inputShape.
Forma de salida: la salida tiene la misma forma que la entrada.
Parámetros: Acepta el objeto args el cual puede tener las siguientes propiedades:
- theta (número): Es la ubicación umbral de activación.
- inputShape: si se establece esta propiedad, se utilizará para construir una capa de entrada que se insertará antes de esta capa.
- batchInputShape : si se establece esta propiedad, se creará una capa de entrada y se insertará antes de esta capa.
- batchSize: si no se proporciona batchInputShape y sí inputShape, se utiliza batchSize para crear el batchInputShape.
- dtype: Es el tipo de tipo de datos para esta capa. float32 es el valor predeterminado. Este parámetro se aplica exclusivamente a las capas de entrada.
- nombre: Este es el nombre de la capa y es de tipo string.
- entrenable : si los pesos de esta capa se pueden cambiar por ajuste. Verdadero es el valor predeterminado.
- pesos: Los valores de peso iniciales de la capa.
Devoluciones: Devuelve un objeto (ThresholdedReLU).
Ejemplo 1:
Javascript
import * as tf from "@tensorflow/tfjs"; const thresholdReLULayer = tf.layers.thresholdedReLU({theta: 10}); const x = tf.tensor([11, 8, 9, 12]); thresholdReLULayer.apply(x).print();
Producción:
Tensor [11, 0, 0, 12]
Ejemplo 2:
Javascript
import * as tf from "@tensorflow/tfjs"; const thresholdReLULayer = tf.layers.thresholdedReLU({ theta: 0.9 }); const x = tf.tensor([1.12, 0.8, 1.9, 0.12, 0.25, 3.4], [2, 3]); thresholdReLULayer.apply(x).print();
Producción:
Tensor [[1.12, 0, 1.9], [0, 0, 3.4000001]]
Referencia: https://js.tensorflow.org/api/latest/#layers.thresholdedReLU
Publicación traducida automáticamente
Artículo escrito por aayushmohansinha y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA