miércoles, 22 de abril de 2009

La habitación china

Santiago, el anfitrión del excelente blog La máquina de von Neumann, me recuerda el problema de la habitación china de Searle. Tras haber hablado del test de Turing en una entrada reciente, supongo que es de justicia comentar sobre ella. Además, servirá para entender un poco mejor la base de la teoría computacional de la consciencia, tema que está saliendo en los otros no menos excelentes blogs de El libro de la almohada, Los monos también curan,  Una nueva conciencia y A bordo del Otto Neurath.

El experimento mental de la habitación china dice lo siguiente (tomo la redacción de Juanjo Navarro).

Supongamos que una persona que no sabe chino se encerrase en una habitación. En la sala tiene una serie de símbolos chinos sobre hojas de papel en distintas cajas. A la persona se le escriben una serie de preguntas escritas en chino que se le hacen llegar a través de una ventana. Nuestra intención es, naturalmente, que esta persona responda a nuestras preguntas escribiéndonos una respuesta en perfecto chino. ¿Pero cómo? Si esa persona no sabe chino lo único que podremos obtener de ella será una serie de símbolos sin el menor sentido. Bueno, habíamos olvidado un elemento más que esta persona tiene a mano: Un libro de instrucciones. En éste se le especifica (en castellano, naturalmente) una serie de reglas que le permiten combinar símbolos en respuesta a otra cadena de símbolos que se especifique como entrada (la pregunta). Las reglas son del tipo “ante un símbolo de la primera caja con un símbolo de la segunda respóndase con la unión de tres símbolos de la cuarta, sexta y segunda caja”. Es muy importante resaltar que en las instrucciones no se hace ninguna mención al significado de los símbolos sino solo a la forma de combinarlos. Tampoco se hace ninguna restricción en cuanto a la longitud de las reglas ni del libro de reglas. El libro podría muy bien ser una enciclopedia de 2000 tomos y cada regla ocupar medio tomo, y no por ello cambiaría el planteamiento del problema. Finalmente supongamos que el libro de reglas está tan bien hecho que las respuestas resultan ser perfectas en chino.

La pregunta es: ¿La persona ‘sabe’ chino?

Searle, quien propuso el experimento mental, decía que la respuesta a la pregunta debe ser “no”. El código le permite dar respuestas pero, evidentemente, cualquiera de nosotros en esa situación negaríamos haber aprendido chino.

Vayamos por partes:

(1) Pongamos que las preguntas son 1000 (¿cuál es la capital de Islandia?, ¿quién propuso el test de Turing?...) y 1000 son las respuestas. El código será muy sencillo: si los símbolos son tales y tales (descríbanse los símbolos de cada pregunta), escoja esta combinación de símbolos (descríbanse los de la respuesta). En vez de una descripción de los símbolos, el libro de instrucciones puede simplemente escribirlos. Dar estas respuestas no es saber chino.

(2) Pongamos que las preguntas pueden ser cualesquiera (¿qué es la filosofía? ¿te gusta el té verde?). El código no puede prever todas las preguntas posibles (¿o sí?) así que tendrá que hacer como hacen ahora las máquinas de búsqueda en Internet: detectar las palabras claves de la pregunta, ofrecer una respuesta a temas prefijados sobre esas palabras y esperar que la respuesta sea pertinente y de interés. Esto es muy difícil. Un libro de instrucciones (programa, código,…) que haga esto será un gran programa, pero es discutible si eso es saber chino.

(3) Pongamos que el input no son solo preguntas, sino que la “conversación” puede seguir cualquier formato, igual que siguen las conversaciones entre personas chinas o no chinas. Esto es saber chino, y el programa (o código o instrucciones o lo que sea) es el conocimiento del chino.

-¿Cómo que el programa? ¿Qué pasa con la persona?

-Bueno, o bien el programa más la persona saben chino (así, entre los dos) o bien la manera en la que el programa consigue que la persona entienda todas las instrucciones es enseñándole chino. En cualquier caso, no hay otra cosa que conocimiento de chino.

Searle estaba cometiendo una falacia de composición en su respuesta. Como la respuesta en el supuesto (1) era “no” y como sólo había una complicación en las instrucciones, entonces la respuesta era un “no” también para el supuesto (2). Una segunda falacia ocurre cuando se entiende el supuesto (2) como el conocimiento de la lengua china. Si se consiguen conversaciones coherentes en el supuesto (3) con instrucciones cada vez más completas (y complejas), es porque justamente esta complicación, estas instrucciones, estos algoritmos, constituyen el conocimiento de la lengua china (la escrita, por ser fieles al ejemplo).

Mutatis mutandi, esta es la idea detrás del test de Turing. Si complicando una máquina conseguimos los mismos resultados que observamos con un cerebro, tendremos en la máquina las mismas cualidades que el cerebro, y serán estas complicaciones y complejidades las que constituyen esas cualidades.

Ni el test de Turing ni la habitación china dicen nada acerca de la posibilidad de que una máquina vaya nunca a pasar el test de Turing ni a saber chino, sólo nos hacen reflexionar sobre qué pasaría si llegara el caso que presentan ambas pruebas. La teoría computacional de la mente tampoco dice que tales máquinas lleguen a ser posibles, pero sí que cerebro y ordenadores comparten similaridades en la manera de procesar la información. Lo anterior no implica que la teoría prediga que algún día las máquinas alcancen el nivel de complejidad del cerebro humano, pero ofrece una clara línea de investigación para estudiar el cerebro y para avanzar en el diseño de máquinas cada vez más complejas.

40 comentarios:

  1. Gracias por el link al blog.

    Respecto a la sala china sólo tengo leído de segunda mano así que no me atrevo a ser concluyente pero en principio me parece falaz porque tal vez el que maneja el código no sabe chino pero -aunque suene chocante- la habitación sí; de igual modo que ninguna neurona, ni incluso porción aislada de nuestro cerebro, sabe castellano pero la mente en su totalidad sí.

    A este respecto sería bueno reseñar que existe un libro en donde a Searle se le acusa de cometer la falacia mereológica que consiste en el error de atribuir a las partes constituyentes de un animal atributos lógicamente aplicables sólo al animal como un todo.

    Los predicados sicológicos se han de aplicar al cuerpo como in totum y no al cuerpo y sus partes como el cerebro. En roman paladino: el cerebro no siente, el cerebro no se apropia de un cuerpo. Sino que es el cuerpo el que siente, etcétera.

    Por eso digo que para no cometer tal falacia debiéramos decir que la habitación sabe chino.

    ResponderEliminar
  2. Héctor:

    Sí, yo digo también eso, aunque algo de pasada. He preferido darle a la entrada este otro giro sobre la complejidad de las instrucciones para enlazar con todas las discusiones que nos traemos.

    ResponderEliminar
  3. por cierto, excelente blog de indole cientifico. estas a un nivel muy por encima de mis capacidades. te voy a seguir un tiempill, aver si consigo aprnder algo nuevo.

    por cierto, he visto q has recibido un anonimo ofreciendote info, si le das un mail. Y tambien y no lo he hecho, por supuesto.

    tambien, casualmente, ha llegado al calor de una discusion con j gil.

    nos tratanmos hace tiempo, es una relacion de amor-odio ya larga. los amorios son asi, q se le va a hacer.

    ResponderEliminar
  4. Yo también te agradezco el enlace. La consciencia es un tema fascinante del cual apenas sé algo. Por eso, al igual que JoPo, por aquí nos verás a ver si aprendemos algo nuevo. ¿"Algo nuevo" he dicho? ¡Todo me parece nuevo! jaja.

    Un saludo.

    ResponderEliminar
  5. JoPo:

    Gracias por el piropo. Yo también intento aprender, incluso cuando escribo.

    ¿Sigues en tratos con José Gil? Yo pensaba que su táctica era (1) meterse en un blog diciendo buenas palabras, (2) exponer su argumento (siempre suponiendo por derecho divino lo que quiere concluir), (3) negarse a entrar en cualquier cosa que no sea repetir su argumento y (4) irse no sin antes decirte que le has decepcionado por no darle la razón.

    Hugo:

    No te preocupes. De la consciencia nadie sabe todavía nada.

    ResponderEliminar
  6. Hola José y muchas gracias.

    Muy buen análisis del caso. Afirmas, si te he comprendido bien, que tener el algoritmo para llevar a cabo una conversación en chino es lo mismo que saber chino. Precisamente, cuando aprendemos chino lo que nos enseñan es, precisamente, a usar una serie de reglas gramaticales para poder tener una conversación (algoritmos a fin de cuentas). Si la máquina mantiene una conversación con absoluta normalidad, será porque además conoce los significados de la palabras y oraciones (sabe características de sus referentes, al igual que nosotros)... ¿Eso no es saber chino? Sí. Si tenemos un robot que tiene un brazo, con él coge una raqueta y le da a la pelota, ¿Acaso no sabe jugar al tenis? ¿Qué es acaso saber jugar al tenis que eso?

    Además, como dice Héctor, la que realmente sabe chino es la habitación, ni siquiera el hombre, reducido a mero operario... ufff, me es chungo imaginar en que el conjunto de letras que el hombre consulta en los diferentes tomos y lee en unas instrucciones saben chino aunque el hombre no lo sepa...

    Pero, la máquina... ¿es consciente de que sabe manejar un lenguaje? Podríamos preguntárselo y ella contestaría... ¿qué nos respondería?

    - Sí José, soy HAL y claro que soy consciente de mis magníficas habilidades lingüísticas.

    Ay, qué miedo. ¿Pero por qué esta respuesta y no la contraria? Creo que el problema de todo este asunto es explicitar qué condiciones han de darse para que una máquina pudiera mantener una conversación potencialmente infinita con pleno sentido. Sólo hemos mencionado gramática y semántica, además de una gran base de datos... ¿pero y si le preguntamos cosas como "qué se siente al contemplar un paisaje?". Nuestra máquina jamás ha visto... ¿podría contestarnos?...

    ¿O si le preguntáramos por su personalidad, aficiones, historia...? Habría que programarle un pasado... unas características personales... ¡¡¡habría que hacer casi un humano al completo!!!

    De algún modo la pregunta también es: ¿es totalmente computable el manejo del lenguaje? En este sentido son de mucho interés las máquinas del mismo Turing o las gramáticas generativas de Chomsky ¡¡¡o el teorema de incompletud de Gödel!!!. Creo que la pregunta sobre la posibilidad de crear una máquina real de conversación que superara el test de verdad, es además, irreversiblemente relevante para responder de todas a la objeción de Searle.

    ResponderEliminar
  7. Pregunta Santiago:

    ¿es totalmente computable el manejo del lenguaje?.

    Es una pregunta interesante. Si partimos de la teoría de la gramática universal de Chomsky y aceptamos su jerarquía de lenguajes, la respuesta es un rotundo SÍ.

    Personalmente considero que nuestra cognición no es digitalmente computable pero sí nuestro órgano lingüístico, mejor dicho, lo que emana de dicho órgano y es que si algo está "claro" es que todo pensamiento NO es verbal.

    De hecho, el (casi) siempre comedido Pinker afirma en su libro El instinto del Lenguaje que creer lo contrario es absurdo.

    ResponderEliminar
  8. Efectivamente Héctor. Si todo pensamiento no es verbal... ¿no es necesaria esa no verbalidad para mantener indefinidamente una conversación con sentido y así superar el test de Turing?

    Durante la conversación saldrían a colación cuestiones que, de algún modo, requieran que la máquina "pensara" no verbalmente y entonces, sólo con un pleno conocimiento del chino, no serviría, la máquina quedaría confusa.

    Creo que tanto Turing como Searle creían ingenuamente en la posibilidad de un lenguaje aislado. Y, no, para saber manejar un lenguaje hacen falta muchas cosas... yo diría que casi ser un ser humano, o ser una réplica muy parecida a un humano.

    ResponderEliminar
  9. El problema es si existe o no un conjunto de "instrucciones" que permitan hacer lo que proponía Searle. Es el viejo problema de la computación, de si hay algoritmos para todo, la "computabilidad" de los problemas, de la que así de memoria, recuerdo que fue tratada con profusión por ejemplo en "El nuevo traje del emperador" de Penrose. Hay demostraciones matemáticas de que algunos problemas no son computables, problemas que por otro lado, una mente humana resuelve con facilidad. Creo que Godel ofreció un intento de discriminar entre lo computable o lo no computable de manera más global. Pero de esto último no me hagais mucho caso, que lo estoy diciendo de memoria.
    Un saludo.

    ResponderEliminar
  10. Ah...se me olvidaba...
    Para investigar algo sobre lo que es la conciencia, además de Penrose, recomiendo muchísimo "Sobre la inteligencia" de Jeff Hawkins.
    Recordad bien este nombre, porque yo creo que dará mucho que hablar.

    ResponderEliminar
  11. Otra vez yo...jejeje.
    Mi lista de lecturas pendientes acaba de aumentar considerablemente en unos minutos:

    Penrose, Roger & Hawking, Stephen, Cuestiones cuánticas y cosmológicas, Alianza Editorial, 1995, ISBN 84-206-2756-9.
    Penrose, Roger, Las sombras de la mente: hacia una compresión científica de la consciencia, Editorial Crítica, 1996, ISBN 84-7423-771-8.
    Hawking, Stephen & Penrose, Roger, La naturaleza del espacio y el tiempo, Editorial Debate, 1996, ISBN 84-8306-032-9.
    Penrose, Roger & Abner Shimony, Nancy Cartwright, Stephen Hawking, Malcolm Longair, Lo grande, lo pequeño y la mente humana, Cambridge University Press, 1999. ISBN 84-8323-047-X.
    Penrose, Roger, Prólogo de Einstein 1905. Un año milagroso, Planeta, 2004, ISBN 84-8432-215-7.
    Penrose, Roger, El camino a la realidad: Una guía completa de las leyes del universo, Editorial Debate, 2006, ISBN 84-8306-681-5.

    ResponderEliminar
  12. A todos:

    No creo que ser el resultado de unas instrucciones o de unos algoritmos sea equivalente a ser computable en el sentido de manejar sistema formales. Podrían prepararse instrucciones para crear un nuevo sistema cuando el programa se tope con problemas indecibles, de manera que en el nuevo sistema sean decidibles (o asumidos como axiomas). El teorema de Gödel se refiere a sistemas formales cerrados. Por supuesto que ampliar el sistema no resuelve la completitud ni la decidibilidad, sino que aplazan el problema hasta la siguiente vez que surja, pero esto es lo que le pasa también al cerebro humano.

    Santiago:

    Si viene un extraterrestre, aunque no pueda responder a preguntas que tienen que ver con las experiencias de un humano, seguro que podríamos atribuirle consciencia. No deberíamos ser entonces tan estrictos con la máquina.

    Héctor:

    El pensamiento no verbal podría asimilarse a los algoritmos intermedios resueltos pero que no se expresan en el output final de al máquina.

    En general, tiendo a pensar que a máquina tendría una complicación del orden de magnitud de la complicación del cerebro humano. Llevó millones de años llegar a este cerebro, que lo consigamos los humanos con una máquina en unos cientos (o miles) de años es algo abierto a opiniones (de momento).

    Cambiosocialya:

    Bienvenido por aquí. Me alegra tu visita. No conozco a Jeff Hawkins, me lo apunto. A Penrose sí (llegué a la mitad de El camino a la realidad, pero no pude pasar de ahí). Como ya he dicho en alguna ocasión, creo que su línea de investigación cuántica de la consciencia está en un callejón sin salida. En las sinapsis neuronales no hay manera de meter los fenómenos cuánticos, pues suceden a una escala demasiado grande. Gracias por las referencias.

    ResponderEliminar
  13. José:

    No, no creo que esté siendo demasiado exigente con la máquina. Por un lado, pasar el test de Turing, es pasar el test de Turing y yo hablo de lo que yo quiera con la máquina. Si ella quiere engañarme para hacerse pasar por humana necesitará pensar "no lingüísticamente" en muchos casos para conseguir mantener el sentido de la conversación. No le estoy pidiendo que sepa datos que cualquier persona no sabría, sólo le pido que responda con sentido siempre que le pregunte.

    Si le pregunto algo tan básico: "¿Cómo te encuentras esta mañana?" la máquina puede comprender gramaticalmente (algorítmicamente) la pregunta, pero para responder tendrá que entender de algún modo que es una pregunta de cortesía a la que se suele responder "bien, gracias", o si estamos en otro contexto, responder debidamente. También tendrá que entender que "mañana" no se refiere al día siguiente, sino a hoy antes de las 12:00, que "encontrarse" no es buscarse y hallarse, sino que se refiere al estado actual de uno mismo (¿tendrá la máquina un uno mismo?) y que los adjetivos para "encontrarse" suelen ser "bien, mal, regular, etc.".

    Como vemos, los factores contextuales son muy importantes y muchos de ellos no son lingüísticos, no se saben por saber gramática... Para que la máquina pase el test de Turing hace falta enseñarle mucho más que el uso "puro" del lenguaje.

    ResponderEliminar
  14. Santiago:

    Tienes toda la razón. En realidad, mi comentario no era ningún reproche a lo que decías. Sólo quería, aprovechando tu comentario, poner sobre la mesa el hecho de que, para considerar a la máquina inteligente (o consciente, o pensante, o lo que sea), seguramente no necesitemos que sea totalmente indistinguible de un ser humano. Esta es una vuelta de tuerca al test.

    ResponderEliminar
  15. José Luis tienes razón, por eso dicho que no sé de nada concluyente que rechaze la computabilidad del fenómeno mental (los argumentos de Penrose son interesantes pero no soy matemático, no me siento capacitado para refutarlos o para entenderlos realmente)

    Ahora bien, insisto que cuando hablo de computabilidad lo hago en el sentido metamatemático, el mismo que dice que la gravedad es computable

    ResponderEliminar
  16. Es curioso, a mi me pasa algo parecido de lo que comentas con Penrose. Cuando leí la obra que cito, me propuse terminarla, aún sin estar muy convencido de si comprendía o no lo que decía, y con un sentimiento muy raro mientras la leía. A veces yo no sé dónde quiere llegar este autor, me parece increible que una mente tan brillante, se empeñe en recorrer callejones sin salida. En "La nueva mente del emperador" sostiene que un ordenador no podrá nunca tener consciencia ni resolver ciertos problemas que el cerebro resuelve con facilidad. Ahora bien...entonces...¿hay que pensar que un científico como él sostiene que el cerebro es una especie de "máquina sobrenatural" irreproducible por la tecnología humana?. Yo no digo que un ordenador (en el sentido de máquina Universal de Turing) pueda llegar a pensar, pero estoy seguro de que una máquina (en el sentido de tecnología fabricada por el hombre) podrá hacer algún día.

    ResponderEliminar
  17. No creo que realmente sea igual poder contestar preguntas según un libro de instrucciones que conocer una lengua.

    Imaginemos para que tenga cierta gracia (espero que se vean los caracteres chinos) que nos entra la siguiente pregunta:


    ¿Cuántos/as 腿 tiene un 馬?

    Buscamos en el diccionario y dice que un 馬 tiene 四 腿.

    ¿Sabemos chino?

    Quizá sea lo mismo que tener los valores numéricos de una función y tener la función, que nos permite calcular cualquier otro valor.


    Pero aún más. Cuando tenemos el significado de una palabra realmente tenemos alguna forma de representación de la realidad significada. ¿Hay alguna diferencia en "Puerto" entre "Puerto de Barcelona y Puerto de Béjar, o entre Puerto de Santa María y Puerto Lápice? ¿Por qué si "restar" es "quedar" se identifica "resta" y sustracción"?

    ResponderEliminar
  18. Cambiosocialya:

    Me alegra no ser el único.

    Sursum corda!

    Saludos, me alegra tenerte por aquí. Tu ejemplo es el caso (1) de mi entrada y ahí está comentado. ¿Qué dices de los casos (2) y (3)?

    La representación de la palabra es algo no observable (solo lo es en uno mismo, no en los demás). Cuando una máquina pase el test de Turing será porque hace algo muy parecido a lo que denominamos representar.

    La dificultad de entender las palabras que pones como ejemplo ilustran la dificultad (tal vez imposibilidad) para diseñar una máquina que pase el test. Pero si lo pasa será porque estas dificultades se han superado.

    ResponderEliminar
  19. Bueno, vayamos por partes:

    Cualquier persona que no conoce una respuesta a una pregunta se ve obligada a buscar en internet o en su biblioteca. E incluso podemos hacer lo que se llama "tirar balones fuera". La máquina podría hacer lo mismo: preguntar "¿qué cosa es tal?" o responder "es la pregunta más tonta que nunca me han hecho".

    Es problema en mi opinión es que de la conciencia sólo tenemos una certeza subjetiva nunca intersubjetiva y por tanto no creo que podamos diferenciar lo que es tener conciencia o conocer un idioma de una máquina suficientemente programada.

    Imaginemos una pregunta con humor hecha a la máquina. En "¿Cómo se llama este libro?" Smullyan ponía un bonito ejemplo que podemos usar.

    Para demostrar lo buena que era un máquina desafiaron a uno de los responsables a que hiciera cualquier pregunta.

    -¿Donde está mi padre ahora?

    -Su padre está ahora pescando en el Lago Superior, respondió la máquina.

    -Falso. Mi padre murió.

    -El MARIDO DE SU MADRE murió. Su padre está pescando en el Lago Superior.

    ¿Se reiría la máquina?

    ResponderEliminar
  20. De nuevo estás diciendo que será muy complicado hacer una máquina que pase el test de compararse con un humano. Concedo que esto es difícil o imposible.

    Precisamente porque de la consciencia solo tenemos una certeza subjetiva, la manera de evaluar o creer que los demás la tienen es el test de Turing. Si los demás o las máquinas reaccionan como esperamos que reaccionen los seres pensantes, pues eso es lo único que podemos decir, que lo hacen, y si la máquina pasa el test, que también lo hace la máquina.

    Me gusta que saques a Smullyan a colación. Su libro What is the name of this book? es impagable.

    Me acuesto ahora, así que si comentas algo, tendrás que esperar a mañana por la respuesta.

    ResponderEliminar
  21. El problema es que podemos concebir una máquina que se sepa todas las respuestas, ser creativa y tener un programa de emulación del humor inmejorable.

    La cuestión acerca de si responder a las preguntas es equivalente a tener conciencia va a permanecer.

    En mi caso tengo mi propia pregunta que no sé resolver y es la emergencia de la conciencia. Lo malo es que no veo la manera de que nadie me la conteste. Podríamos sumarla a los paralogismos de la razón pura.

    También me voy. Iba a contestar a juanantonio en una entrada de mi blog sobre relativismo moral, pero me ha parecido más formativo leer tu blog.

    Si no me caigo de la silla trataré de responder algo más allí. Y si vas, serás bienvenido. No hay canapés ;-)

    ResponderEliminar
  22. Se me olvidó comentar que otro libro que me marcó bastante para intentar llegar a comprender lo que es la consciencia fue "Física de la inmortalidad" de Frank J. Typler. Resumiendo, viene a decir que la consciencia es una cuestión de grado, o cuantitativa, y no cualitativa. Es decir, que toda la materia del Universo tiene cierto grado de consciencia, en tanto en cuanto procesa información. Para él esa es la clave: si algo procesa información es consciente, dependiendo de la complejidad con la que puede llegar a procesar dicha información (en sentido input-output). Si mezclamos esto con las teorías de Jeff Hawkins y otros, que localizan la parte clave de la consciencia en el neocortex de los primates, se podría concluir que la consciencia no es nada más o nada menos que lo que siente alguien que tiene neocortex cuando procesa información. A mi es de las definiciones que más me encajan. Y obsérvese que el "soporte" de esa consciencia, puede ser cualquier cosa, bajo este punto de vista. Un termostato, tendría un nivel de conciencia bajísimo, pero tendría algo, una bacteria, tal vez algo más, un coche, algo más que el termostato, un ordenador, algo menos que un insecto...y así sucesivamente.

    ResponderEliminar
  23. Bueno...es que voy escribiendo conforme me voy acordando...
    Porque lo que decís me va haciendo recordar...
    Un concepto que me pareció interesante del libro de Hawikins es que desmonta en cierto sentido el test de Turing, porque la verdad, creo que es algo que no prueba la existencia de inteligencia. Los test que se proponen, atienden al comportamiento que tendría que tener la máquina para comprobar si piensa o no, pero claro...como bien es sabido, el test, por ejemplo, no lo pasaría un niño de 3 años, o alguien incapacitado para dar un "output" conveniente. Así que Hawkins mantiene que no es el comportamiento lo que define la consciencia o el pensamiento (siempre pone el ejemplo de que los que escuchan una conferencia, respecto del comportamiento no se puede deducir que sean inteligentes). Por tanto la conciencia y el pensamiento, son procesos mentales internos, quue no tienen por qué "exteriorizarse" para ser demostrados. La idea central de Hawkins es que el neocortex es una máquina que principalmente PREDICE acontecimientos con la intención de hacer al organismo que lo posee más capaz para sobrevivir en un mundo que cambia constantemente. El paso interesante que da, es su intento de demostrar que toda la fisiología del cerebro está montada para ese fin, el fin de encontrar PATRONES y similitudes y asociaciones de patrones.
    Interesantísimo lo que propone este hombre, que además ya se ha puesto manos a la obra para llegar a un ALGORITMO que reproduzca la mecánica del cerebro.
    Palabras clave: Jeff Hawkins, Numenta

    ResponderEliminar
  24. José y Sursum:

    Qué cosas, tengo el libro de Smullyan justo enfrente de mí, en la estantería encima de la tele. Mientras leía las entradas lo podía ver por el rabillo del ojo.

    El problema es los que Chomsky llamó la "caja negra de Skinner". Mi observación sólo puede comprobar la conducta "observable" de la máquina, sus "outputs". No puedo, por así decirlo, "mirar dentro de ella", para comprobar si es consciente o no... Lo único que el test podría decirme es comprobar es si me engaña o no. Parece, como bien dice Sursum, un paralogismo kantiano. Yo puedo jugar muy bien al tenis... ¿es eso lo mismo que ser consciente de que estoy jugando? ¿Sí o no?

    Cambiosocialya:

    No creo en esa gradación de conciencias a las que alude Jenkins. Me es imposible aceptar que mi tostadora tiene algo, aunque sea un mínimo de consciencia. Podría aceptar que, en lo que refiere a animales con sistema nervioso, sea posible hablar de esa gradación, aceptando que la conciencia sea algo gradual y no "un salto emergente". Creo que para tener un mínimo de consciencia hace falta como condición necesaria tener algún tipo de receptor de información, y eso es exclusivo del mundo vivo.

    No obstante, puede encontrarse cierta similitud con la teoría biológica de la cognición de Maturana y Varela.

    ResponderEliminar
  25. No es gran cosa y está en inglés pero en youtube está el fragmento en donde en la serie Numbers, explican la caja china.

    http://www.youtube.com/watch?v=0F3-j-GQcts&feature=PlayList&p=92C214039FB04F67&playnext=1&playnext_from=PL&index=15

    ResponderEliminar
  26. Santiago:

    Toda la gracia del test de Turing es resolver (disolver) ese problema. No podemos observar la consciencia de nadie (solo la nuestra). No pidamos a la máquina más de lo que pedimos a los demás para atribuirle lo que nos atribuimos a nosotros.

    Estoy contigo en que hace falta un mínimo de complejidad para empezar a hablar de consciencia. Pero se te ha colado lo de que tener receptores de información es exclusivo del mundo vivo. Algunas máquinas ya los tienen.

    Gracias por el vínculo, ya me lo he mirado. Más que la explicación, vale la anécdota.

    ResponderEliminar
  27. cambiosocial:

    Siempre he creído, desde que me interesa el aspecto evolutivo de la inteligencia, que la utilidad de ésta consiste en crear un modelo mental de la realidad, manejar el modelo y anticiparnos a los sucesos.

    No recuerdo de quién era el ejemplo, pero se trataba del cavernícola viendo entrar dos osos en una cueva, viendo salir uno e imaginando que un oso seguía dentro. El cavernícola incapaz de representarse la realidad a escala mental acabaría muerto por el oso y quedarían los cavernícolas listos capaces de imaginar lo que no veían en el momento.

    Pensar es elaborar modelos articulados en forma de conceptos, relacionados por leyes lógicas, numéricas o de asociación de frecuencias de aparición, evaluar esos modelos a la luz de los resultados y, como dice Popper -de éste si recuerdo la cita- que mueran las ideas erróneas y no nosotros.

    ResponderEliminar
  28. Observad que vosotros mismos cuando intentais negarlo, lo estais admitiendo. Decís que si algo tiene una manera de recibir información, tiene algo de consciencia. Muchos sistemas considerados "inertes" pueden procesar información. ¿Por qué una bacteria está viva, y un ordenador no? ¿Solo porque el ordenador está hecho de materiales (en parte) diferentes? Yo no veo ningún problema en admitir que algunas cosas creadas por el hombre, en cuanto que procesan información, tienen algo de consciencia. O mejor dicho, no veo por qué no pueden tenerla. ¿Por qué un gato respecto de un hombre tiene cierto grado de consciencia, aunque inferior a la humana, pero una bacteria no? ¿Dónde está el límite de la gradación?

    ResponderEliminar
  29. cambiosocial:

    Este tema de la consciencia es de los que deberían llevar en su entrada lo de Infierno de Dante:

    Perded toda esperanza los que por aquí entréis.

    No veo salida y llevo mucho tiempo dando vueltas al tema: sabemos lo que funcionalmente es la consciencia, la inteligencia, conocemos sus bases materiales y su vinculación necesaria con una estructura material -cerebral en nuestros casos de seres vivos- pero no podemos dar razón de que las percepciones que son plurales se acomoden a una unidad de conciencia ni que lo que son estados de millones de elementos físicos de nuestros sistemas nerviosos puedan ser una unidad perceptiva para un sujeto que no se sabe cómo ha salido de esas miriadas de átomos-partículas-subparticulas-loquesean.

    Por eso creo que nos debemos conformar con ir paso a paso comprendiendo el funcionamiento de los sistemas nerviosos y olvidándonos de los saltitos metafísicos que nos llevarán a la melancolía, el alcohol y las mujeres... bueno, eso no suena tan mal ¿no?

    ResponderEliminar
  30. Creo que a veces queremos llegar a una profundidad excesiva con ciertos análisis.
    Yo me quedo con la idea de Jeff Hawkins: "consciencia es lo que se siente cuando se tiene neocórtex". No hay que darle más vueltas.

    ResponderEliminar
  31. Es verdad, las máquinas ya tienen receptores. Con esto sólo quería quitar como conscientes a tostadoras, piedras, volcanes y planetas...

    Creo que cualquier entidad que cambie información con el medio, utiliza, genera conocimiento, pero eso no implica ser consciente de ello. Cuando yo camino no soy consciente de los movimientos de mis piernas y es muy complejo el intercambio de información que hacen todos mis órganos y tejidos para andar. No hay que confundir conocer o intercambiar información, que ser consciente de ello.

    Cambiosocialya:

    La definición de Hawkins es precisa (desde luego que ser consciente es eso), pero es prácticamente tautológica. Es algo así como decir: tener conciencia es lo que se siente al tener un órgano que genera conciencia. No decimos nada.

    ResponderEliminar
  32. Cambiosocialya:

    El procesamiento de información es, por todo lo que sabemos, condición necesaria para que aparezca la consciencia. No es suficiente. Parece que tiene que haber un tratamiento complejo de esta, con interacción de varios niveles de representación y de interpretación y cosas así. ¿Dónde está el límite? Ni idea. A las células y a los mosquitos yo les atribuiría consciencia cero sin problemas de conciencia. No pasan ninguna versión del test de Turing.

    Sursum corda!:

    Desde luego, no podemos esperar avanzar nada hablando entre nosotros, pero sí hacer una puesta en común de cuál es el estado científico de la cuestión e intentar entender este estado. También nos es lícito fantasear un poco con las hipótesis que los científicos aventuran como líneas de investigación posibles.

    Santiago:

    De acuerdo entonces.

    ResponderEliminar
  33. José Luis:

    Supongo que estamos de acuerdo en lo que dices. Mi postura es que sabiendo lo que es la estructura atómica de las cosas y del cerebro, un ciego no sabría qué es un color rojo en el mismo sentido en que lo sabría si viera.

    Y por extensión, ni un olor, ni un pensamiento ni una fantasía. Un conocimiento de las cosas reales, que no son nuestra mente, no es nunca equivalente a sus representaciones en nuestra mente. Sólo una sensación de color es idéntica a otra sensación de color.

    ¿Podríamos explicar a un daltónico la diferencia entre rojo y verde de manera que la VIERA? Creo que no y que la mente sólo la conocemos como experiencia propia.

    ResponderEliminar
  34. Sursum corda!:

    Sabemos algo más que la estructura atómica del cerebro. Vamos viendo cómo se organizan las redes neuronales, y está mapeado el cerebro a una escala todavía muy grande, pero estamos a años luz de afinar la escala y llegar a interpretar esas redes como lo hace el propio cerebro.

    ResponderEliminar
  35. José Luis:

    El citar la estructura atómica era sólo un ejemplo.

    Quiero decir que si pudiéramos describir con exactitud desde fuera de un cerebro lo que está pensando, dónde están sus recuerdos y cómo se combinan cuando piensa en sus juguetes de niño, o cómo decide ir a ver en el museo de juguetes los madelman astronauta y el soldado de la nieve, eso no sería igual que cuando lo pensamos nosotros.

    Que la visión subjetiva, el pensamiento subjetivo se corresponde con la actividad neuronal y se identifica con ella, pero que la perspectiva subjetiva no se puede reducir a una descripción de estados atómicos o neuronales o cualquier cosa que sea lo que podamos hacer.

    Quiero decir que si supiéramos con detalle lo que ocurre en términos de actividad cerebral cuando pensamos podríamos imaginar que el sujeto examinado debe de estar pensando en unas vacaciones en el caribe con su compañera de trabajo, pero no tendríamos sino una descripción del suceso, pero no el suceso.

    Cuando veo una foto y al realidad puedo comparar y decir que son idénticas en color. Pero eso se debe a que hago la comparación entre lo que percibo en una y en otra. Pero al querer comparar lo que percibo en la realidad falta el término común de comparación.

    Y esto lo digo convencido de que el pensamiento se debe poder reducir a la actividad neuronal pues no hay nada flotando entre las neuronas y que sea el pensamiento. Lo que veo es que ambas perspectivas son una imagen de otra, pero no se pueden identificar. Si yo comprendiera que en tal sitio esstá el recuerdo de mi abuela sabría que tengo el recuerdo de mi abuela y cuándo pienso en mi abuela, pero eso no sería idéntico a mi recuerdo de mi abuela.

    Un color es una percepción que se corresponde con un estado de nuestras neuronas provocado por una serie de impulsos nerviosos bla bla bla ondas de luz bla bla bla absorción y reflexión de frecuencias bla bla bla estructuras de orbitales bla bla bla. Pero tambien un olor es bla bla bla estructuras químicas y un sonido bla bla bla frecuencias de vibración del aire y de los objetos. Pero color, olor o sonido son subjetivamente muy diferentes e irreducibles unos a otros. Su diferencia es subjetiva y por lo tanto ¿no debemos preguntarnos por qué?



    Jeje, la palabra clave del comentario ha sido

    acqua

    ResponderEliminar
  36. Sí, sí, pero si hacemos todo eso tendríamos un acercamiento a la consciencia como lo tenemos del resto de la realidad. No tenemos los electrones, sino su modelo físico. Igual con la consciencia si llegamos a eso, que es a lo más que podemos llegar.

    ResponderEliminar
  37. Pues sí, y yo consideraría ese acercamiento tan válido como el que hace la ciencia a los electrones o cualquier otra cosa. Nuestra teoría será siempre una teoría y nunca un electrón. Basta que explique los hechos y que haga predicciones falsables y que resulten como predice la teoría.

    Pero ¿no ves ningún otro problema en ello? Quiero decir que si una percepción son átomos, partículas, equis, ¿qué es lo subjetivo?

    Se responde que lo que sucede en un cerebro con neocortex. Bien, pero si somos reduccionistas en un conjunto de partes NO HAY MÁS que el conjunto de partes y sus interacciones. Podemos explicar cómo se estructuran y funcionan pero ¿cómo es gracioso que había un cojo con una pata de palo que se llamaba Smith?

    ResponderEliminar
  38. Si llegamos a poder ver todo el mapa de interacciones neuronales de un individuo y sabemos a qué se refiere cada una de ellas, la respuesta será que sí, que sabremos por qué le causa risa un chiste y no otro, en el sentido de que observaremos claramente que un chiste dispara unos resortes y otro chiste no. No sentiremos lo mismo que este individuo, claro, pero tampoco sentimos cómo un electrón repele a otro.

    ResponderEliminar
  39. Acabo de enlazar esta entrada aquí http://divergencia-carlitox.blogspot.com/2013/06/podran-pensar-algun-dia-los-computadores.html

    Tome alguna de tus ideas citándote.

    Saludos.

    ResponderEliminar