Tensorflow.js es una biblioteca de código abierto desarrollada por Google para ejecutar modelos de aprendizaje automático y redes neuronales de aprendizaje profundo en el entorno del navegador o del Node.
La función tf.train.adamax() se usó para crear un tf.AdamaxOptimizer que usa el algoritmo adamax.
Sintaxis:
tf.train.adamax(learningRate, beta1, beta2, epsilon, decay)
Parámetros:
- learningRate: especifica la tasa de aprendizaje que utilizará el algoritmo de descenso de gradiente de adamax.
- beta1: Especifica la tasa de decaimiento exponencial estimada para el 1er momento.
- beta2: Especifica la tasa de caída exponencial estimada para el segundo momento.
- epsilon: Especifica una pequeña constante para la estabilidad numérica.
- decay: Especifica la tasa de decaimiento para cada actualización.
Valor devuelto: Devuelve un tf.adamaxOptimizer.
Ejemplo 1: Ajuste una función f = (a*x + y) usando el optimizador adamax aprendiendo los coeficientes a y b.
Javascript
// Importing tensorflow import * as tf from "@tensorflow/tfjs" const xs = tf.tensor1d([0, 1, 2, 3]); const ys = tf.tensor1d([1.1, 5.9, 16.8, 33.9]); // Choosing random coefficients const a = tf.scalar(Math.random()).variable(); const b = tf.scalar(Math.random()).variable(); // Defining function f = (a*x + b). const f = x => a.mul(x).add(b); const loss = (pred, label) => pred.sub(label).square().mean(); // Defining learning rate of adamax algorithm const learningRate = 0.01; // Creating our optimizer. const optimizer = tf.train.adamax(learningRate); // Train the model. for (let i = 0; i < 10; i++) { optimizer.minimize(() => loss(f(xs), ys)); } // Make predictions. console.log( `a: ${a.dataSync()}, b: ${b.dataSync()}}`); const preds = f(xs).dataSync(); preds.forEach((pred, i) => { console.log(`x: ${i}, pred: ${pred}`); });
Producción:
a: 0.4271160364151001, b: 0.21284617483615875} x: 0, pred: 0.21284617483615875 x: 1, pred: 0.6399621963500977 x: 2, pred: 1.0670782327651978 x: 3, pred: 1.4941942691802979
Ejemplo 2: Ajuste una ecuación cuadrática usando el optimizador adamax, aprendiendo los coeficientes a, b y c. Las configuraciones de nuestro optimizador son las siguientes:
- tasa de aprendizaje = 0,01;
- beta1 = 0,1;
- beta2 = 0,1;
- épsilon = 0,3;
- descomposición = 0,5;
Javascript
// Importing tensorflow import * as tf from "@tensorflow/tfjs" const xs = tf.tensor1d([0, 1, 2, 3]); const ys = tf.tensor1d([1.1, 5.9, 16.8, 33.9]); // Choosing random coefficients const a = tf.scalar(Math.random()).variable(); const b = tf.scalar(Math.random()).variable(); // Defining function f = (a*x^2 + b*x + c). const f = x => a.mul(x).add(b); const loss = (pred, label) => pred.sub(label).square().mean(); // Defining configurations of adamax algorithm const learningRate = 0.01; const beta1 = 0.1; const beta2 = 0.1; const epsilon = 0.3; const decay = 0.5; // Creating our optimizer. const optimizer = tf.train.adamax( learningRate, beta1, beta2, epsilon, decay); // Train the model. for (let i = 0; i < 10; i++) { optimizer.minimize(() => loss(f(xs), ys)); } // Make predictions. console.log( `a: ${a.dataSync()}, b: ${b.dataSync()}}`); const preds = f(xs).dataSync(); preds.forEach((pred, i) => { console.log(`x: ${i}, pred: ${pred}`); });
Producción:
a: 0.8346626162528992, b: 0.5925931334495544} x: 0, pred: 0.21284617483615875 x: 1, pred: 1.4272557497024536 x: 2, pred: 2.261918306350708 x: 3, pred: 3.096580982208252
Referencia: https://js.tensorflow.org/api/1.0.0/#train.adamax
Publicación traducida automáticamente
Artículo escrito por abhinavjain194 y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA