Algoritmo de Cristian

El Algoritmo de Cristian es un algoritmo de sincronización de reloj que se utiliza para sincronizar la hora con un servidor de hora mediante procesos de cliente. Este algoritmo funciona bien con redes de baja latencia donde el tiempo de ida y vuelta es corto en comparación con la precisión, mientras que los sistemas/aplicaciones distribuidas propensas a la redundancia no van de la mano con este algoritmo. Aquí el tiempo de ida y vuelta se refiere al tiempo de duración entre el inicio de una solicitud y el final de la respuesta correspondiente.
A continuación se muestra una ilustración que imita el funcionamiento del algoritmo de Cristian: 
 

Cristian's agorithm illustration

Algoritmo:
1) El proceso en la máquina cliente envía la solicitud para obtener la hora del reloj (la hora en el servidor) al servidor del reloj a la hora  T_0    .
2) El servidor de reloj escucha la solicitud realizada por el proceso del cliente y devuelve la respuesta en forma de hora del servidor de reloj.
3) El proceso del cliente obtiene la respuesta del servidor de reloj a la hora  T_1    y calcula la hora sincronizada del reloj del cliente utilizando la fórmula que se proporciona a continuación.

\[ T_{CLIENT} = T_{SERVER} + (T_1 - T_0)/2 \]

donde  T_{CLIENTE}    se refiere a la hora sincronizada del reloj, 
T_{SERVIDOR}    se refiere a la hora del reloj devuelta por el servidor, 
T_0    se refiere a la hora a la que el proceso del cliente envió la solicitud, se 
T_1    refiere a la hora a la que el proceso del cliente recibió la respuesta
Funcionamiento/Fiabilidad del fórmula anterior:
T_1 - T_0    se refiere al tiempo combinado que tardan la red y el servidor en transferir la solicitud al servidor, procesar la solicitud y devolver la respuesta al proceso del cliente, suponiendo que la latencia de la red  T_0    T_1    son aproximadamente iguales.
La hora en el lado del cliente difiere de la hora real en  (T_1 - T_0)/2    segundos como máximo. Usando la declaración anterior, podemos sacar la conclusión de que el error en la sincronización puede ser como máximo  (T_1 - T_0)/2    segundos. 
Por eso, 

\[ error\, \epsilon\, [-(T_1 - T_0)/2, \, (T_1 - T_0)/2] \]

Los códigos de Python a continuación ilustran el funcionamiento del algoritmo de Cristian: El 
código a continuación se usa para iniciar un prototipo de un servidor de reloj en la máquina local: 
 

Python3

# Python3 program imitating a clock server
 
import socket
import datetime
   
# function used to initiate the Clock Server
def initiateClockServer():
 
    s = socket.socket()
    print("Socket successfully created")
       
    # Server port
    port = 8000
 
    s.bind(('', port))
      
    # Start listening to requests
    s.listen(5)     
    print("Socket is listening...")
       
    # Clock Server Running forever
    while True:
       
       # Establish connection with client
       connection, address = s.accept()     
       print('Server connected to', address)
       
       # Respond the client with server clock time
       connection.send(str(
                    datetime.datetime.now()).encode())
       
       # Close the connection with the client process
       connection.close()
 
 
# Driver function
if __name__ == '__main__':
 
    # Trigger the Clock Server   
    initiateClockServer()

Producción: 
 

Socket successfully created
Socket is listening...

El siguiente código se usa para iniciar un prototipo de un proceso de cliente en la máquina local:
 

Python3

# Python3 program imitating a client process
 
import socket
import datetime
from dateutil import parser
from timeit import default_timer as timer
 
# function used to Synchronize client process time
def synchronizeTime():
 
    s = socket.socket()         
       
    # Server port
    port = 8000    
       
    # connect to the clock server on local computer
    s.connect(('127.0.0.1', port))
 
    request_time = timer()
 
    # receive data from the server
    server_time = parser.parse(s.recv(1024).decode())
    response_time = timer()
    actual_time = datetime.datetime.now()
 
    print("Time returned by server: " + str(server_time))
 
    process_delay_latency = response_time - request_time
 
    print("Process Delay latency: " \
          + str(process_delay_latency) \
          + " seconds")
 
    print("Actual clock time at client side: " \
          + str(actual_time))
 
    # synchronize process client clock time
    client_time = server_time \
                      + datetime.timedelta(seconds = \
                               (process_delay_latency) / 2)
 
    print("Synchronized process client time: " \
                                        + str(client_time))
 
    # calculate synchronization error
    error = actual_time - client_time
    print("Synchronization error : "
                 + str(error.total_seconds()) + " seconds")
 
    s.close()       
 
 
# Driver function
if __name__ == '__main__':
 
    # synchronize time using clock server
    synchronizeTime()

Producción: 
 

Time returned by server: 2018-11-07 17:56:43.302379
Process Delay latency: 0.0005150819997652434 seconds
Actual clock time at client side: 2018-11-07 17:56:43.302756
Synchronized process client time: 2018-11-07 17:56:43.302637
Synchronization error : 0.000119 seconds

Improvisación en la sincronización del reloj:
mediante pruebas iterativas en la red, podemos definir un tiempo de transferencia mínimo mediante el cual podemos formular un tiempo de reloj de sincronización mejorado (menos error de sincronización). 
Aquí, al definir un tiempo de transferencia mínimo, con un nivel de confianza alto, podemos decir que el tiempo del servidor 
siempre se generará después  T_0 + T_{min}    T_{SERVER}    siempre se generará antes  T_1 - T_{min}    , donde  T_{min}    está el tiempo de transferencia mínimo, que es el valor mínimo de  T_{REQUEST}    T_{RESPONSE}    durante varias iteraciones pruebas Aquí el error de sincronización se puede formular de la siguiente manera: 

\[ error\, \epsilon\, [-((T_1 - T_0)/2 - T_{min}), \, ((T_1 - T_0)/2 - T_{min})] \]

De manera similar, si  T_{REQUEST}    T_{RESPONSE}    difieren en una cantidad de tiempo considerable, podemos sustituir  T_{min}    por  T_{min1}    T_{min2}    , donde  T_{min1}    es el tiempo de solicitud mínimo observado y  T_{min2}    se refiere al tiempo de respuesta mínimo observado en la red. 
La hora del reloj sincronizado en este caso se puede calcular como: 

\[ T_{CLIENT} = T_{SERVER} + (T_1 - T_0)/2 + (T_{min2} - T_{min1})/2 \]

Entonces, simplemente introduciendo el tiempo de respuesta y solicitud como latencias de tiempo separadas, podemos mejorar la sincronización del tiempo del reloj y, por lo tanto, disminuir el error de sincronización general. Una serie de pruebas iterativas que se ejecutarán depende de la desviación general del reloj observada.
Referencias: 
1) https://en.wikipedia.org/wiki/Cristian%27s_algorithm 
2) https://en.wikipedia.org/wiki/Round-trip_delay_time 
3) https://www.geeksforgeeks.org/socket- programación-python 
4) https://en.wikipedia.org/wiki/Clock_drift
 

Publicación traducida automáticamente

Artículo escrito por Harshit Saini y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *