En este artículo, vamos a ver cómo aplicar la función de unidad lineal rectificada de manera elemental en PyTorch en Python. Podemos rectificar la función de unidad lineal en cuanto a elementos utilizando el método torch.nn.ReLU().
método torch.nn.ReLU()
En PyTorch, el método torch.nn.ReLu() reemplaza todos los valores negativos con 0 y todos los no negativos se dejan sin cambios. Los valores del tensor deben ser reales solamente. también podemos hacer esta operación en el lugar usando inplace=True como parámetro. antes de continuar, veamos la sintaxis del método dado.
Sintaxis: torch.nn.ReLU(inplace=False)
Parámetros:
- inplace: este parámetro se usa cuando queremos hacer esta operación en el lugar. El valor predeterminado de inplace es False.
Ejemplo 1:
El siguiente programa es para comprender cómo calcular la función de unidad lineal rectificada en términos de elementos.
Python
# Import the required library import torch import torch.nn as nn # define a tensor input = torch.tensor([[-1., 0., 2., 0.], [3., 4., -5., 0.], [6., -9., -10., 11.], [0., 13., 14., -15.]]) print(" Original Tensor: ", input) # Apply Rectified Linear Unit Function # Element-Wise Rel = torch.nn.ReLU() Output = Rel(input) # display result print(" Output Tensor: ", Output)
Producción:
Ejemplo 2:
El siguiente programa es para comprender cómo aplicar la función de unidad lineal rectificada con inplace = True.
Python
# Import the required library import torch import torch.nn as nn # define a tensor input = torch.tensor([[-2., 3., -6., 2.], [3., -6., 5., 0.], [6., -3., 0., -11.], [13., -13., 14., 15.]]) print(" Original Tensor: ", input) # Apply Rectified Linear Unit Function # Element-Wise Do this operation # in-place Rel = torch.nn.ReLU(inplace=True) Output = Rel(input) # display result print(" Output Tensor: ", Output)
Producción:
Publicación traducida automáticamente
Artículo escrito por mukulsomukesh y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA