Considere la entropía condicional y la información mutua para el canal simétrico binario. La fuente de entrada tiene el alfabeto X = {0, 1} y las probabilidades asociadas {1/2, 1/2}. La array del canal es donde p es la probabilidad de transición. Entonces la entropía condicional viene dada por:
(A) 1
(B) – plog(p) – (1 – p)log(1 – p)
(C) 1 + p log(p) + (1 – p)log(1 – p)
(D) 0
Respuesta: (B)
Explicación:
Cuestionario de esta pregunta
Publicación traducida automáticamente
Artículo escrito por GeeksforGeeks-1 y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA