Tensorflow.js tf.layers.thresholdedReLU() Función

Tensorflow.js es un conjunto de herramientas de código abierto desarrollado por Google para ejecutar modelos de aprendizaje automático y redes neuronales de aprendizaje profundo en el navegador o en la plataforma del Node. También permite a los desarrolladores crear modelos de aprendizaje automático en JavaScript y utilizarlos directamente en el navegador o con Node.js.

La función tf.layers.thresholdedReLU() se utiliza para aplicar la función de activación de la unidad lineal rectificada de umbral en los datos.

Sintaxis:

 tf.layers.thresholdedReLU(args?)

Forma de entrada: arbitraria. Cuando utilice esta capa como capa inicial en un modelo, use la configuración inputShape.

Forma de salida: la salida tiene la misma forma que la entrada.

Parámetros: Acepta el objeto args el cual puede tener las siguientes propiedades:

  • theta (número): Es la ubicación umbral de activación. 
  • inputShape: si se establece esta propiedad, se utilizará para construir una capa de entrada que se insertará antes de esta capa. 
  • batchInputShape : si se establece esta propiedad, se creará una capa de entrada y se insertará antes de esta capa. 
  • batchSize: si no se proporciona batchInputShape y sí inputShape, se utiliza batchSize para crear el batchInputShape.
  • dtype: Es el tipo de tipo de datos para esta capa. float32 es el valor predeterminado. Este parámetro se aplica exclusivamente a las capas de entrada.
  • nombre: Este es el nombre de la capa y es de tipo string.
  • entrenable : si los pesos de esta capa se pueden cambiar por ajuste. Verdadero es el valor predeterminado.
  • pesos: Los valores de peso iniciales de la capa.

Devoluciones: Devuelve un objeto (ThresholdedReLU).

Ejemplo 1:

Javascript

import * as tf from "@tensorflow/tfjs";
 
const thresholdReLULayer =
    tf.layers.thresholdedReLU({theta: 10});
     
const x = tf.tensor([11, 8, 9, 12]);
 
thresholdReLULayer.apply(x).print();

Producción:

Tensor
   [11, 0, 0, 12]

Ejemplo 2:

Javascript

import * as tf from "@tensorflow/tfjs";
 
const thresholdReLULayer =
    tf.layers.thresholdedReLU({ theta: 0.9 });
     
const x = tf.tensor([1.12, 0.8,
    1.9, 0.12, 0.25, 3.4], [2, 3]);
 
thresholdReLULayer.apply(x).print();

Producción:

Tensor
   [[1.12, 0, 1.9],
    [0, 0, 3.4000001]]

Referencia: https://js.tensorflow.org/api/latest/#layers.thresholdedReLU

Publicación traducida automáticamente

Artículo escrito por aayushmohansinha y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *