En el campo del Aprendizaje Automático, el Perceptrón es un Algoritmo de Aprendizaje Supervisado para clasificadores binarios. El modelo Perceptron implementa la siguiente función:
Para una elección particular del vector de peso y el parámetro de sesgo , el modelo predice la salida para el vector de entrada correspondiente .
La tabla de verdad de la función NO lógica es solo de entrada binaria de 1 bit (0 o 1), es decir, el vector de entrada y la salida correspondiente :
0 | 1 |
1 | 0 |
Ahora, para el vector de peso correspondiente del vector de entrada , la función de perceptrón asociada se puede definir como:
For the implementation, considered weight parameter is and the bias parameter is .
Implementación de Python:
# importing Python library import numpy as np # define Unit Step Function def unitStep(v): if v >= 0: return 1 else: return 0 # design Perceptron Model def perceptronModel(x, w, b): v = np.dot(w, x) + b y = unitStep(v) return y # NOT Logic Function # w = -1, b = 0.5 def NOT_logicFunction(x): w = -1 b = 0.5 return perceptronModel(x, w, b) # testing the Perceptron Model test1 = np.array(1) test2 = np.array(0) print("NOT({}) = {}".format(1, NOT_logicFunction(test1))) print("NOT({}) = {}".format(0, NOT_logicFunction(test2)))
NOT(1) = 0 NOT(0) = 1
Aquí, la salida predicha del modelo ( ) para cada una de las entradas de prueba coincide exactamente con la salida convencional de la puerta lógica NOT ( ) de acuerdo con la tabla de verdad.
Por lo tanto, se verifica que el algoritmo de perceptrón para la puerta lógica NOT está implementado correctamente.
Publicación traducida automáticamente
Artículo escrito por goodday451999 y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA