TensorFlow es una biblioteca Python de código abierto diseñada por Google para desarrollar modelos de aprendizaje automático y redes neuronales de aprendizaje profundo.
GradientTape() se utiliza para registrar operaciones para la diferenciación automática.
Sintaxis: tensorflow.GradientTape (persistente, watch_accessed_variables)
Parámetros:
- persistente (opcional): puede ser Verdadero o Falso con el valor predeterminado Falso. Define si se crea o no una cinta de degradado persistente.
- watch_accessed_variables: es un valor booleano que define si la cinta observará automáticamente cualquier variable (entrenable) a la que se acceda mientras la cinta esté activa o no.
Ejemplo 1:
Python3
# Importing the library import tensorflow as tf x = tf.constant(4.0) # Using GradientTape with tf.GradientTape() as gfg: gfg.watch(x) y = x * x * x # Computing gradient res = gfg.gradient(y, x) # Printing result print("res: ",res)
Producción:
res: tf.Tensor(48.0, shape=(), dtype=float32)
Ejemplo 2:
Python3
# Importing the library import tensorflow as tf x = tf.constant(4.0) # Using GradientTape with tf.GradientTape() as gfg: gfg.watch(x) # Using nested GradientTape for calculating higher order derivative with tf.GradientTape() as gg: gg.watch(x) y = x * x * x # Computing first order gradient first_order = gg.gradient(y, x) # Computing Second order gradient second_order = gfg.gradient(first_order, x) # Printing result print("first_order: ",first_order) print("second_order: ",second_order)
Producción:
first_order: tf.Tensor(48.0, shape=(), dtype=float32) second_order: tf.Tensor(24.0, shape=(), dtype=float32)
Publicación traducida automáticamente
Artículo escrito por aman neekhara y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA