La computación autónoma es un tipo de computación visionaria iniciada por IBM. Esto se hace para tomar decisiones adaptativas que utilizan políticas de alto nivel. Tiene una característica de actualización constante mediante optimización y adaptación.
Historia
Fue propuesto por Jiming Liu en el año 2001. Utiliza sistemas artificiales para resolver problemas complejos usando imitaciones como la de los humanos. El 15 de octubre del año 2001, el presidente de investigación de IBM, Paul Horn, se dirigió a una reunión anual. Presentó una solución a las crecientes complejidades y mencionó que la respuesta radicaba en construir sistemas informáticos que pudieran autorregularse de manera que nuestros sistemas nerviosos regulen y protejan nuestros cuerpos. Por ejemplo, optimización de colonias de
hormigas La optimización de colonias de hormigas es una metaheurística que basamos en la población para encontrar soluciones aproximadas a problemas de optimización complejos.
Necesidad de computación autónoma
Con el aumento en la demanda de computadoras, los problemas relacionados con la computadora también están aumentando. Cada vez son más complejos. La complejidad se ha vuelto tanta que hay un aumento en la demanda de trabajadores calificados. Esto ha fomentado la necesidad de computadoras autónomas que realicen operaciones informáticas sin necesidad de intervención manual.
Áreas de Computación Autonómica
Hay cuatro áreas de Autonomic Computing según lo definido por IBM. Estos son los siguientes:
- Autoconfiguración: el sistema debe poder configurarse automáticamente de acuerdo con los cambios en su entorno.
- Autorreparación: IBM menciona que un sistema autónomo debe tener una propiedad por la cual debe ser capaz de repararse a sí mismo de los errores y también desviar las funciones de los problemas siempre que se encuentren.
- Autooptimización: según IBM, un sistema autónomo debe poder funcionar de manera optimizada y garantizar que sigue un algoritmo eficiente para todas las operaciones informáticas.
- Autoprotección: IBM establece que un sistema autónomo debe ser capaz de realizar detección, identificación y protección contra la seguridad y los ataques al sistema para que la seguridad y la integridad de los sistemas permanezcan intactas.
Características
- El sistema autonómico se conoce a sí mismo. Esto significa que conoce sus componentes, capacidad de especificaciones y el estado en tiempo real. También tiene conocimiento sobre recursos propios, prestados y compartidos.
- Puede configurarse una y otra vez y ejecutar su configuración automáticamente cuando sea necesario.
- Tiene la capacidad de optimizarse ajustando los flujos de trabajo.
- Puede curarse a sí mismo. Esta es una forma de mencionar que puede recuperarse de fallas.
- Puede protegerse detectando e identificando varios ataques contra él.
- Puede abrirse solo. Esto significa que no debe ser una solución propietaria y debe implementar estándares abiertos.
- Puede esconderse. Esto significa que tiene la capacidad de permitir la optimización de recursos, al ocultar su complejidad.
- Un sistema autónomo según IBM debe ser capaz de saber o esperar qué tipo de demanda va a surgir de sus recursos para que sea un proceso transparente para que los usuarios vean esta información.
Arquitectura de computación autónoma (AC)
La computación autónoma es necesaria para que supere el problema de la mayor complejidad de los sistemas informáticos que actúa para evitar un mayor crecimiento de los sistemas. Hay varias predicciones que sugieren un crecimiento del 38 % de dispositivos por año con una mayor complejidad. Existe una necesidad de computación autónoma en la computación distribuida debido a la gestión de los complejos de redes informáticas y un factor limitante en el desarrollo futuro de los sistemas informáticos distribuidos.
La informática móvil ha traído consigo una mayor complejidad para los sistemas de gestión de empleados, ya que los empleados necesitan acceder a los datos de su empresa incluso cuando no están en la oficina. Todos estos casos de complejidad plantean una necesidad de computación autónoma, ya que es mejor que la computación manual que es errónea y requiere mucho tiempo. La computación autónoma es un sistema que despliega políticas de alto nivel para tomar decisiones. Se basa en la arquitectura denominada MAPE, que significa monitorear, analizar el plan y ejecutar. La arquitectura gira en torno a la idea de una reducción de los costes de gestión. La arquitectura AC comprende atributos que permiten la autogestión, según varios proveedores, al involucrar lazos de control.
- Bucles de control: un proveedor de recursos proporciona bucles de control. Está incrustado en el entorno de tiempo de ejecución.
Se configura utilizando una interfaz de administración que se proporciona para cada recurso, por ejemplo, disco duro. - Elementos gestionados: El elemento gestionado es un componente del sistema controlado. Puede ser tanto un recurso de hardware como de software. Los sensores y efectores se utilizan para controlar el elemento gestionado.
- Sensores: contiene información sobre el estado y cualquier cambio en el estado de los elementos del sistema autónomo.
- Efectores: Son comandos o interfaces de programación de aplicaciones (API) que se utilizan para cambiar los estados de un elemento.
- Administrador autónomo: se utiliza para garantizar que se implementen los bucles de control. Este divide el bucle en 4 partes para su funcionamiento. Estas partes son monitorear, analizar, planificar y ejecutar.
La Computación Autonómica debe involucrar las siguientes 3 propiedades:
- Automático: Debe poder ejecutar sus operaciones sin intervención humana.
- Adaptativo: las computadoras autónomas deben poder realizar cambios de acuerdo con su entorno y otras condiciones imprevistas, como ataques de seguridad y fallas del sistema.
- Aware: también debe tener conocimiento de los procesos y estados internos que permitirían ejecutar las dos funciones anteriores.
Ventajas
- Es de código abierto.
- Es una tecnología evolutiva que se adapta a los nuevos cambios.
- Está optimizado, por lo tanto, brinda una mejor eficiencia y rendimiento, por lo que requiere menos tiempo de ejecución.
- Es muy seguro y puede contrarrestar los ataques al sistema y a la seguridad automáticamente.
- Cuenta con mecanismos de respaldo que permiten la recuperación de fallas y bloqueos del sistema.
- Reduce el costo de poseer (Costo total de propiedad) un mecanismo de este tipo, ya que es menos propenso a fallar y puede mantenerse por sí mismo.
- Puede configurarse solo, lo que reduce el tiempo necesario para la configuración manual.
Desventajas
- Siempre existirá la posibilidad de que el sistema falle o no funcione correctamente.
- Esto se traduciría en un aumento del desempleo debido a las menores necesidades de las personas después de su implementación.
- La asequibilidad sería un problema porque sería caro.
- Necesitaría personas muy capacitadas para administrar o desarrollar dichos sistemas, lo que aumentaría el costo para la empresa que los emplea.
- Depende de la velocidad de Internet. Su rendimiento disminuye con una disminución en la velocidad de Internet.
- No estaría disponible en áreas rurales donde hay menores disposiciones de conexión a Internet estable.
Publicación traducida automáticamente
Artículo escrito por supriya_saxena y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA