Argumento de la habitación china en inteligencia artificial

Cuando preguntamos, ‘ ¿Es posible la inteligencia artificial (IA) ?’ Realmente preguntamos ‘¿Podemos crear conciencia en las computadoras’

El argumento de la sala china sostiene que un programa no puede darle a una computadora una «mente», «comprensión» o «conciencia» independientemente de cuán inteligente o humanamente el programa pueda hacer que la computadora se comporte / [Fuente Wiki

En 1980, John Searle argumentó que la prueba de Turing no podía usarse para determinar “ si una máquina se considera o no tan inteligente como los humanos ”. Argumentó que cualquier máquina como ELIZA y PARRY podría pasar fácilmente la prueba de Turing simplemente manipulando símbolos que no entendían. Sin comprensión, no podrían describirse como “ pensantes ” en el mismo sentido que las personas. 
 

Configuración

John se imagina a sí mismo (en lugar de una máquina) como una persona no china sentada dentro de la habitación aislada de otra persona china que está fuera de la habitación e intenta comunicarse. Se le proporciona una lista de caracteres chinos y un libro de instrucciones que explica en detalle las reglas según las cuales se pueden formar strings (secuencias) de caracteres, pero sin dar el significado de los caracteres. Eso significa que tiene un libro con una versión en inglés del programa de computadora, junto con suficiente papel, lápices, borradores y archivadores. 

En este experimento mental, una persona en la «sala china» recibe preguntas desde fuera de la sala y consulta una biblioteca de libros para formular una respuesta.

Ahora recibe todos los mensajes publicados a través de una ranura en la puerta escritos en idioma chino. Procesará todos los símbolos de acuerdo con las instrucciones del programa y producirá los caracteres chinos como salida como: 
 

  • Si encuentra un símbolo chino como ♍, devuelve el símbolo ♓ 
     
  • Si encuentra un símbolo chino como ꪸ기, devuelve el símbolo Ꞌ. 
     

En realidad, el libro de instrucciones contiene tantas reglas que contienen símbolos de entrada y su respectivo símbolo de salida. Solo necesita ubicar el símbolo chino de entrada y devolver el símbolo chino correspondiente como salida. 
Ahora, continúa el argumento, una computadora (máquina), es como este hombre, en que no hace nada más que seguir las reglas dadas en un libro de instrucciones (el programa). No comprende el significado de las preguntas que se le hacen ni sus propias respuestas, y por lo tanto no puede decirse que esté pensando. El hecho es que la persona interna no comprende el idioma chino, pero aun así logra comunicarse perfectamente con la persona externa en chino. 

Compare John con la máquina en Turing Test, la máquina puede tener una gran colección de bases de datos que contienen preguntas y respuestas. Cuando un interrogador hace la pregunta, la máquina simplemente ubica la pregunta en la base de datos y devuelve la respuesta correspondiente al interrogador. Todo el escenario parecería que el ser humano está devolviendo la respuesta a diferencia de la máquina. 

Por lo tanto, la máquina en configuración no tiene comprensión de esas preguntas y respuestas, sin “ comprensión ” (o “ intencionalidad ”), no podemos describir lo que la máquina está haciendo como “ pensar ” y, como no piensa, no tiene un “ mente ” en el sentido normal de la palabra. Por lo tanto, no podemos considerar a la máquina como inteligente. 

Referencia:  
https://en.wikipedia.org/wiki/Chinese_room 

Este artículo es una contribución de Shubham Bansal . Si te gusta GeeksforGeeks y te gustaría contribuir, también puedes escribir un artículo usando write.geeksforgeeks.org o enviar tu artículo por correo a contribuir@geeksforgeeksorg. Vea su artículo que aparece en la página principal de GeeksforGeeks y ayude a otros Geeks.
 

Publicación traducida automáticamente

Artículo escrito por GeeksforGeeks-1 y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *