¿Qué es la Súper Inteligencia Artificial (ASI)?

La inteligencia artificial se ha convertido en uno de los términos más populares de la informática en los últimos tiempos. Este artículo analiza una de las clasificaciones de la Súper Inteligencia Artificial (ASI).

La Superinteligencia Artificial (ASI) es la IA hipotética, es decir, no hemos podido conseguirla pero sabemos qué pasará si la conseguimos. Entonces, básicamente, es la IA imaginaria que no solo interpreta o comprende el comportamiento y la inteligencia humanos, sino que ASI es donde las máquinas se volverán lo suficientemente conscientes de sí mismas / autovigilantes para superar la capacidad de la inteligencia humana y la capacidad de comportamiento.

Con Superinteligencia, las máquinas pueden pensar en las posibles abstracciones/interpretaciones que son simplemente imposibles de pensar para los humanos. Esto se debe a que el cerebro humano tiene un límite para la capacidad de pensar que está restringida a unos miles de millones de neuronas.

La superinteligencia ha sido durante mucho tiempo la musa de la ciencia ficción distópica que mostraba cómo los robots invadían, dominaban o esclavizaban a la humanidad. Además de la réplica de la inteligencia conductual humana multifacética, el concepto de superinteligencia artificial se centra en la perspectiva de no solo ser capaz de comprender/interpretar las emociones y experiencias humanas, sino que también debe evocar la comprensión emocional, las creencias y los deseos de los demás. propio, basado en su funcionalidad de comprensión.

ASI sería muchísimo mejor en todo o lo que sea que hagamos, ya sea en matemáticas, ciencias, artes, deportes, medicina, estrategias de marketing, pasatiempos, relaciones emocionales o aplicar un intelecto humano preciso a un problema en particular. ASI tendría una mayor memoria con una capacidad más rápida para procesar y analizar situaciones, datos y acciones de estímulos. Debido a este hecho, podemos estar seguros de que las capacidades de toma de decisiones y resolución de problemas de los seres/máquinas superinteligentes serían muy superiores y precisas en comparación con las de los seres humanos. 
La posibilidad y el potencial de tener máquinas tan poderosas a nuestra disposición puede parecer atractivo, pero este concepto en sí mismo es un pliegue de consecuencias desconocidas. El impacto que tendrá en la humanidad, nuestra supervivencia, nuestra existencia es solo un mito o pura especulación.

Los ingenieros y científicos todavía están tratando de lograr una inteligencia artificial completa, donde se puede considerar que las computadoras tienen la capacidad cognitiva adecuada como la de un ser humano. Aunque ha habido desarrollos sorprendentes como la supercomputadora Watson de IBM y Siri, aún las computadoras no han podido simular completamente y lograr la amplitud y diversidad de habilidades cognitivas que un ser humano adulto normal puede hacer fácilmente. Sin embargo, a pesar de los logros, hay muchas teorías que predicen que la superinteligencia artificial llegará más temprano que tarde. Con los logros emergentes, los expertos dicen que la inteligencia artificial completa podría manifestarse en un par de años, y que la superinteligencia artificial podría existir posiblemente en el siglo XXI.

En el libro, Nick Bostrom describe las iniciales con “La fábula inacabada de los gorriones” . La idea era básicamente que unos gorriones querían controlar una lechuza como mascota. La idea les pareció asombrosa a todos excepto a uno de los gorriones escépticos que planteó su preocupación sobre cómo pueden controlar a un búho. Esta preocupación fue descartada por el momento en un asunto de «nos ocuparemos de ese problema cuando sea un problema» . Elon Musk tiene preocupaciones similares con respecto a los seres superinteligentes y considera que los humanos son los gorriones en la metáfora de Bostrom y el búho es el futuro ASI. Como fue en el caso de los gorriones, el «problema de control» es aparentemente preocupante porque es posible que solo tengamos una oportunidad de resolverlo si surge un problema.

Al considerar cómo la IA podría convertirse en un riesgo, se concluyó que es muy probable que ocurran dos escenarios clave:

El peligro está en el hecho de “lo que sea necesario” para completar una tarea dada. La IA superinteligente sería lo más eficiente posible para lograr un objetivo determinado, cualquiera que sea, pero tendremos que asegurarnos de que el cumplimiento del objetivo se realice de acuerdo con todas las reglas necesarias que se deben seguir para mantener cierto nivel de control.

Publicación traducida automáticamente

Artículo escrito por maansi_gupta y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *