Diseño de Bases de Datos Paralelas | SGBD

Un DBMS paralelo es un DBMS que se ejecuta en múltiples procesadores o CPU y está diseñado principalmente para ejecutar operaciones de consulta en paralelo, siempre que sea posible. El DBMS paralelo vincula varias máquinas más pequeñas para lograr el mismo rendimiento que se espera de una sola máquina grande.

En Bases de Datos Paralelas, existen principalmente tres diseños arquitectónicos para DBMS paralelos. Son los siguientes:

  1. Arquitectura de memoria compartida
  2. Arquitectura de disco compartido
  3. Arquitectura de nada compartido

Vamos a discutirlos uno por uno:

1. Arquitectura de memoria compartida: en la arquitectura de memoria compartida, hay varias CPU conectadas a una red de interconexión. Pueden compartir una memoria principal única o global y arrays de discos comunes. Cabe señalar que, en esta arquitectura, una sola copia de un sistema operativo de subprocesos múltiples y DBMS de subprocesos múltiples puede admitir estas múltiples CPU. Además, la memoria compartida es una sólida arquitectura acoplada en la que varias CPU comparten su memoria. También se conoce como multiprocesamiento simétrico (SMP) . Esta arquitectura tiene una gama muy amplia que parte de estaciones de trabajo personales que soportan unos microprocesadores en paralelo vía RISC.

Arquitectura de memoria compartida

ventajas :

  1. Tiene acceso a datos de alta velocidad para un número limitado de procesadores.
  2. La comunicación es eficiente.

Desventajas:

  1. No puede usar más de 80 o 100 CPU en paralelo.
  2. El bus o la red de interconexión se bloquea debido al incremento de la gran cantidad de CPU.

2. Arquitecturas de disco compartido:
en la arquitectura de disco compartido, varias CPU están conectadas a una red de interconexión. En este, cada CPU tiene su propia memoria y todas tienen acceso al mismo disco. Además, tenga en cuenta que aquí la memoria no se comparte entre las CPU, por lo tanto, cada Node tiene su propia copia del sistema operativo y DBMS. La arquitectura de disco compartido es una arquitectura débilmente acoplada optimizada para aplicaciones que están inherentemente centralizadas. También se les conoce como clústeres .

Arquitectura de disco compartido

ventajas :

  1. La red de interconexión ya no es un cuello de botella cada CPU tiene su propia memoria.
  2. El equilibrio de carga es más fácil en la arquitectura de disco compartido.
  3. Hay una mejor tolerancia a fallas.

Desventajas:

  1. Si aumenta el número de CPU, también aumentan los problemas de interferencia y contención de memoria.
  2. También existe un problema de escalabilidad.

3, Shared Nothing Architecture:
Shared Nothing Architecture es una arquitectura de múltiples procesadores en la que cada procesador tiene su propia memoria y almacenamiento en disco. En este, varias CPU se conectan a una red de interconexión a través de un Node. Además, tenga en cuenta que dos CPU no pueden acceder a la misma área del disco. En esta arquitectura, no se comparte la memoria o los recursos del disco. También se conoce como procesamiento paralelo masivo (MPP).
 

Arquitectura de nada compartido

ventajas :

  1. Tiene una mejor escalabilidad ya que no se comparten los recursos.
  2. Se pueden agregar varias CPU

Desventajas:

  1. El costo de las comunicaciones es mayor ya que implica el envío de datos y la interacción del software en ambos extremos.
  2. El costo del acceso al disco no local es más alto que el costo de las arquitecturas de disco compartido.

Tenga en cuenta que esta tecnología generalmente se usa para bases de datos muy grandes que tienen un tamaño de 10 12 bytes o TB o para el sistema que tiene el proceso de miles de transacciones por segundo.
 

Publicación traducida automáticamente

Artículo escrito por tarunsinghwap7 y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *