sábado, 25 de abril de 2015

Los detractores de la IA (1): la habitación china

Cualquier manual divulgativo de IA, repite hasta la saciedad que pensar no es otra cosa que manipular símbolos. El diccionario define símbolo como "cosa sensible que se toma como representación de otra, en virtud de una convención o por razón de alguna analogía que el entendimiento percibe entre ambas.” Bajo esta definición (u otra similar), John Searle mantiene que es imposible que un ordenador pueda manipular símbolos.

Searle desarrolla esta tesis en el libro "Mentes, cerebros y ciencia". Los computacionistas parten de la analogía del cerebro con el hardware del ordenador y de la mente con el software o el programa. Desde este punto de vista, nada hay de biológico en la inteligencia que no es sino manipular símbolos. De la misma manera que el cerebro humano es la base material de la mente y la función de esta es manipular símbolos, así también, el hardware es la base material del software y lo que hace este, o al menos algunos de los programas de software, es manipular símbolos.

La cuestión es que un programa no es más que un procedimiento algorítmico en términos de símbolos abstractos que carecen de contenido semántico, es decir que nada significan, y el pensamiento humano es muy diferente: pensar es pensar sobre algo. Otra cosa es que parezca que los programas desarrollan conductas inteligentes, pero, no es igual simular una conducta que realizarla de hecho. Esta cuestión que es de perogrullo en otras materias (podemos hacer una simulación computacional de la balanza de pagos de un país, de la intención de voto de un partido, del vuelo de un ave, etc. sin que nadie confunda la simulación con la cosa real), aparece intencionalmente oscurecida en el caso de los procesos mentales.

Para ilustrar su tesis, Searle recurre a un experimento imaginario: "Imaginemos que un grupo de programadores de ordenador ha escrito un programa que capacita al ordenador para simular que entiende chino. Así, por ejemplo, si al ordenador se le hace una pregunta en chino, confrontará la pregunta con su base de datos y producirá repuestas adecuadas a las preguntas en chino. Ahora bien, ¿Entiende el ordenador, según esto, chino? ¿Entiende chino a la manera en que los hablantes de chino entienden chino? Bien, imaginemos que te encierran en una habitación y que en esa habitación hay diversas cestas llenas de símbolos chinos. Imaginemos que tú (como yo), no entiendes ni una palabra de chino, pero se te da un libro con reglas en castellano para manipular esos símbolos chinos. Las reglas especifican las manipulaciones de los símbolos de manera puramente formal, en términos de su sintaxis, no de su semántica. Supongamos ahora que son introducidos en la habitación algunos otros símbolos chinos y que se te dan instrucciones para devolver otros símbolos fuera de la habitación. Suponte que tú no sabes que los símbolos introducidos en la habitación son denominados "preguntas" de la gente que esta fuera de la habitación y que los símbolos que devuelves fuera de la habitación son denominados "respuestas a las preguntas". Supongamos, además, que los programadores son tan buenos al diseñar los programas y que tú eres tan bueno manipulando símbolos, que enseguida tus respuestas son indistinguibles de las de un hablante natural chino. Es evidente que tú sigues sin saber nada de chino, es imposible aprender una lengua simplemente manipulando símbolos abstractos."


Ahora bien, lo esencial de esta historieta, es que desde el punto de vista de un observador externo, te se comportas exactamente como si entendieses chino. Pero si ha quedado claro que tú no entiendes chino, por la misma razón, ningún ordenador podría entender nunca chino. Entiéndase bien que lo que Searle realiza no es una critica coyuntural (por ahora, no se han podido hacer programas con la suficiente capacidad de comprensión y realización en lenguas naturales, por ejemplo), sino que afirma y demuestra que es imposible que un sistema digital pueda pensar, ni ahora, ni nunca.

Debemos entender "pensar" en un sentido ordinario de pensar sobre algo, pa­ra lo cual se necesita, además de un puñado de símbolos formales, una interpretación o un significado agregado a esos símbolos. Acerca de como adquieren significación los símbolos, se ha discutido mucho en lógica, lingüística o psicología. El caso es que lo seres humanos relacionamos, por ejemplo, la palabra "árbol" con las imágenes de los árboles reales que nos ofrecen nuestros sentidos (no sólo la imagen, también la textura, el olor...), y a lo más, que llega un ordenador es a identificar el vocablo "árbol" con una serie del tipo 110010011000 y relacionar esa serie con otras del mismo tipo.

Finalmente, Searle recapitula las consecuencias de su argumento:  "Ante la pregunta ¿Puede pensar una maquina?, podemos interpretar que en algún sentido todos somos máquinas, en el sentido de que una máquina es un sistema físico capaz de generar cierto tipo de operaciones. Así, trivialmente, hay maquinas que pueden pen­sar: nosotros. Pero es evidente que esta no es la pregunta que nos interesaba. Ante la pregunta ¿Puede una máquina hecha por el hombre pensar? Bien, depende del género del artefacto. Si fuéramos capaces de construir una máquina que fuera molécula por molécula indistinguible del ser humano... ¿quien sabe? Así, en principio, si es posible duplicar las causas, entonces presumiblemente pueden duplicarse los efectos. Pero esta tampoco es la pregunta que se plantea la I.A. Ante la pregunta ¿Puede un ordenador digital, del tipo que todos conocemos, pensar? la respuesta, para Searle, es categóricamente no. Y es "no" por la razón ya aducida de que el programa del ordenador es puramente sintáctico."

No hay comentarios:

Publicar un comentario

Lo más visto...