Con la ayuda de la función de activación de Sigmoid , podemos reducir la pérdida durante el tiempo de entrenamiento porque elimina el problema del gradiente en el modelo de aprendizaje automático durante el entrenamiento.
# Import matplotlib, numpy and math import matplotlib.pyplot as plt import numpy as np import math x = np.linspace(-10, 10, 100) z = 1/(1 + np.exp(-x)) plt.plot(x, z) plt.xlabel("x") plt.ylabel("Sigmoid(X)") plt.show()
Producción :
Ejemplo 1 :
# Import matplotlib, numpy and math import matplotlib.pyplot as plt import numpy as np import math x = np.linspace(-100, 100, 200) z = 1/(1 + np.exp(-x)) plt.plot(x, z) plt.xlabel("x") plt.ylabel("Sigmoid(X)") plt.show()
Producción :
Publicación traducida automáticamente
Artículo escrito por Jitender_1998 y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA