
Santiago, el anfitrión del excelente blog La máquina de von Neumann, me recuerda el problema de la habitación china de Searle. Tras haber hablado del test de Turing en una entrada reciente, supongo que es de justicia comentar sobre ella. Además, servirá para entender un poco mejor la base de la teoría computacional de la consciencia, tema que está saliendo en los otros no menos excelentes blogs de El libro de la almohada, Los monos también curan, Una nueva conciencia y A bordo del Otto Neurath.
El experimento mental de la habitación china dice lo siguiente (tomo la redacción de Juanjo Navarro).
Supongamos que una persona que no sabe chino se encerrase en una habitación. En la sala tiene una serie de símbolos chinos sobre hojas de papel en distintas cajas. A la persona se le escriben una serie de preguntas escritas en chino que se le hacen llegar a través de una ventana. Nuestra intención es, naturalmente, que esta persona responda a nuestras preguntas escribiéndonos una respuesta en perfecto chino. ¿Pero cómo? Si esa persona no sabe chino lo único que podremos obtener de ella será una serie de símbolos sin el menor sentido. Bueno, habíamos olvidado un elemento más que esta persona tiene a mano: Un libro de instrucciones. En éste se le especifica (en castellano, naturalmente) una serie de reglas que le permiten combinar símbolos en respuesta a otra cadena de símbolos que se especifique como entrada (la pregunta). Las reglas son del tipo “ante un símbolo de la primera caja con un símbolo de la segunda respóndase con la unión de tres símbolos de la cuarta, sexta y segunda caja”. Es muy importante resaltar que en las instrucciones no se hace ninguna mención al significado de los símbolos sino solo a la forma de combinarlos. Tampoco se hace ninguna restricción en cuanto a la longitud de las reglas ni del libro de reglas. El libro podría muy bien ser una enciclopedia de 2000 tomos y cada regla ocupar medio tomo, y no por ello cambiaría el planteamiento del problema. Finalmente supongamos que el libro de reglas está tan bien hecho que las respuestas resultan ser perfectas en chino.
La pregunta es: ¿La persona ‘sabe’ chino?
Searle, quien propuso el experimento mental, decía que la respuesta a la pregunta debe ser “no”. El código le permite dar respuestas pero, evidentemente, cualquiera de nosotros en esa situación negaríamos haber aprendido chino.
Vayamos por partes:
(1) Pongamos que las preguntas son 1000 (¿cuál es la capital de Islandia?, ¿quién propuso el test de Turing?...) y 1000 son las respuestas. El código será muy sencillo: si los símbolos son tales y tales (descríbanse los símbolos de cada pregunta), escoja esta combinación de símbolos (descríbanse los de la respuesta). En vez de una descripción de los símbolos, el libro de instrucciones puede simplemente escribirlos. Dar estas respuestas no es saber chino.
(2) Pongamos que las preguntas pueden ser cualesquiera (¿qué es la filosofía? ¿te gusta el té verde?). El código no puede prever todas las preguntas posibles (¿o sí?) así que tendrá que hacer como hacen ahora las máquinas de búsqueda en Internet: detectar las palabras claves de la pregunta, ofrecer una respuesta a temas prefijados sobre esas palabras y esperar que la respuesta sea pertinente y de interés. Esto es muy difícil. Un libro de instrucciones (programa, código,…) que haga esto será un gran programa, pero es discutible si eso es saber chino.
(3) Pongamos que el input no son solo preguntas, sino que la “conversación” puede seguir cualquier formato, igual que siguen las conversaciones entre personas chinas o no chinas. Esto es saber chino, y el programa (o código o instrucciones o lo que sea) es el conocimiento del chino.
-¿Cómo que el programa? ¿Qué pasa con la persona?
-Bueno, o bien el programa más la persona saben chino (así, entre los dos) o bien la manera en la que el programa consigue que la persona entienda todas las instrucciones es enseñándole chino. En cualquier caso, no hay otra cosa que conocimiento de chino.
Searle estaba cometiendo una falacia de composición en su respuesta. Como la respuesta en el supuesto (1) era “no” y como sólo había una complicación en las instrucciones, entonces la respuesta era un “no” también para el supuesto (2). Una segunda falacia ocurre cuando se entiende el supuesto (2) como el conocimiento de la lengua china. Si se consiguen conversaciones coherentes en el supuesto (3) con instrucciones cada vez más completas (y complejas), es porque justamente esta complicación, estas instrucciones, estos algoritmos, constituyen el conocimiento de la lengua china (la escrita, por ser fieles al ejemplo).
Mutatis mutandi, esta es la idea detrás del test de Turing. Si complicando una máquina conseguimos los mismos resultados que observamos con un cerebro, tendremos en la máquina las mismas cualidades que el cerebro, y serán estas complicaciones y complejidades las que constituyen esas cualidades.
Ni el test de Turing ni la habitación china dicen nada acerca de la posibilidad de que una máquina vaya nunca a pasar el test de Turing ni a saber chino, sólo nos hacen reflexionar sobre qué pasaría si llegara el caso que presentan ambas pruebas. La teoría computacional de la mente tampoco dice que tales máquinas lleguen a ser posibles, pero sí que cerebro y ordenadores comparten similaridades en la manera de procesar la información. Lo anterior no implica que la teoría prediga que algún día las máquinas alcancen el nivel de complejidad del cerebro humano, pero ofrece una clara línea de investigación para estudiar el cerebro y para avanzar en el diseño de máquinas cada vez más complejas.