Dentro de la habitación china: ¿algún día sabremos si las máquinas piensan?
Tengo el trabajo más fácil del mundo. Estoy sentado frente a una pared blanca en la que hay dos agujeros. A mi lado una cesta siempre llena de bolas amarillas. A mi espalda, otra pared blanca en la que hay un solo agujero. De los agujeros de la pared a mi frente van saliendo un número indeterminado de bolas amarillas que caen al suelo y se van de la habitación por una especie de sumidero que hay en el mismo suelo.
Mi trabajo consiste en una única y trivial tarea: solo cuando salen dos bolas a la vez, cojo una bola del cesto y la meto por el agujero de la pared a mi espalda. Cuando salen dos bolas a la vez, meto una… dos bolas a la vez, meto una… dos bolas a la vez, meto una. Ya está, eso es todo lo útil que hago en mi vida.
Después de catorce horas así salgo de la habitación 12.453.897 de la sección 54.672.008 del teraedificio 343 del Ministerio de Wetware en la ciudad de Samjiyon. Cobro mis 300 wons, que apenas me dan para un litro de Taedonggang y un poco de kimchi aguado, y me voy a casa: un minúsculo cubículo en el cinturón 16 de la periferia.
Tras la muerte sin descendencia del último miembro de la dinastía Kim, Kim Taeyang, todos temimos una guerra civil provocada por la ambición de ciertos ministros. Sin embargo, la propuesta que salvó todo vino de un hombre que siempre había estado en la segunda línea de la política, un anciano profesor de universidad llamado Min ho.
Estábamos en 2057, nada impedía ya que pudiésemos construir un líder cibernético. Lo llamamos Dangun, en honor al fundador de la primera monarquía coreana y lo construimos en el monte Paektu, el pico más alto del país, nuestra montaña sagrada. Para diseñarlo, Min ho formó un gran equipo de programadores e ingenieros, que trajo de China, India y Rusia, para que construyeran su mente a partir de la de los líderes anteriores de la dinastía Kim y, sobre todo, de la ideología Juche.
La Asamblea Suprema del Pueblo aplaudió entusiasmada la idea: un gran proyecto colectivo en el que embarcar a toda la nación, un colosal plan tecnológico que provocaría un gran recelo en nuestros enemigos capitalistas y que, quizá, supondría la máxima expresión del socialismo mundial.
Sin embargo, el bloqueo económico por parte del demonio yanqui fue durísimo. El natural agotamiento de los recursos naturales, fruto de la sobreproducción salvaje del capitalismo, encareció muchísimo el precio del cobre y del silicio, que ya apenas siquiera podíamos comprar a nuestros aliados chinos. Pronto nos quedamos sin materia prima para construir computadores. Gran parte de Dangun estaba construido (habíamos dedicado más del 60% del PIB y a un 34% de la población activa en su desarrollo) pero la cantidad de hardware requerido para una inteligencia artificial de tal calibre era mucha.
Y la mente del gran Min ho salvó de nuevo la situación. Sí, carecíamos de cobre y de silicio, pero no de población. Además, a nuestros amigos chinos no les importaría dotarnos de tanta mano de obra barata como necesitáramos. Uno de los principios de la computación es lo que se conoce como independencia de substrato: podemos realizar un mismo cálculo con diferentes sustratos materiales. Por ejemplo, podemos construir una calculadora de ruedas dentadas de madera (tal como la pascalina o la de Leibniz), de válvulas de vacío o de transistores, es decir, que podemos hacer máquinas que calculen con casi cualquier material, siempre que consigamos unas propiedades estructurales que permitan el cálculo.
En el fondo, lo único que se necesita para tener, en potencia, todo cálculo posible, es una máquina de Turing, la cual puede conseguirse con muy, muy poco (véanse los estudios de Rogozhin). Pero no hacía falta ir tan lejos teniendo ingentes cantidades de seres humanos: en vez de transistores, memorias, microcontroladores, conmutadores… ¡pondríamos a personas!
Y así fue. El 16 de febrero de 2061, coincidiendo con el cincuenta aniversario del nacimiento de nuestro líder eterno Kim Jong-Il, el primer caudillo computerizado de la historia se puso en funcionamiento, siendo un 23% de su hardware, patriotas norcoeranos. Siguiendo las ideas del modelo de cibergobierno que Stafford Beer intentó implantar en el Chile de Allende, Dangun tenía un control total de todas las operaciones económicas del país. Si se decía que el comunismo fracasaba porque sus decisiones siempre se tomaban más tarde que el ritmo de la economía demandaba, Dangun manejaba la oferta y la demanda en tiempo real. Muy pronto, la nación empezó a funcionar muy bien.
Nuestros enemigos occidentales se alarmaron ante nuestro éxito y los ataques no tardaron en llegar. Hubo dos atentados contra las instalaciones de Dangun, que ocupaban unos 7.500 kilómetros cuadrados (la mitad de la provincia de Ryanggang), que, afortunadamente, no tuvieron consecuencias irreparables.
Pero lo peor vino por parte de la maquiavélica propaganda capitalista. Utilizaron las redes para mandar noticias falsas acerca de la mente del propio Dangun. Decían que Dangun no tenía realmente mente, que Dangun no comprendía, realmente, nada de lo que hacía; que solo era una competente simulación de pensamiento, una mera máscara, una ficción. Para sostener semejantes blasfemias utilizaron lo que llamaron el argumento de la habitación china de Searle. Una solemne estupidez pero que ha conseguido hacer dudar a muchos camaradas. Muchas veces, las ideas hacen más daño que las bombas.
No tengo nombre. Mi identificación para el régimen es Puerta lógica AND 453.445 CCDW del distrito 319 de la megalópolis de Samjiyon. Soy una parte de la mente de Dangun, soy una parte de la mente del líder supremo, soy una parte de Dios. Dangun ya está desarrollando nuestro programa nuclear con increíbles progresos. Occidente sentirá muy pronto su ira.
El argumento de la habitación china
El filósofo norteamericano John Searle es mundialmente famoso por su argumento de la caja o habitación china publicado en 1980 ('Minds, brains and programs'), si bien la autoría de tal argumento no es suya. Tal y como me informó el profesor Julio Cesar Armero, el argumento ya había sido expuesto mucho antes (concretamente, 21 años antes) por el escritor de ciencia ficción ruso Anatoli Dneprov en su cuento de 1961 titulado 'El juego'; (Además, también tenemos un argumento muy parecido, el de la nación china, propuesto por Ned Block en 1978, que también cuenta con una versión anterior de 1974 propuesta por Lawrence Davis).
El argumento viene a ser una crítica a la Inteligencia Artificial Fuerte tal y como la entiende Searle: la idea no ya de que las computadoras pueden emular aspectos o facultades de una mente, sino que una computadora bien programada es una mente y, como tal, capaz de comprender y de tener estados cognitivos. Vamos a explicarlo a partir de nuestro relato inicial.
¿Cómo argumentaban los críticos capitalistas que Dangun no tenía una mente real? Supongamos que el narrador de la historia, Puerta lógica AND 453.455, forma parte de un circuito electrónico encargado de traducir las oraciones que Dangun oye en coreano, a chino (Dangun habla muchos idiomas). Al igual que AND, en dicho circuito hay miles de patriotas coreanos haciendo las funciones de componentes electrónicos de tal forma que cuando el circuito recibe como input una frase en coreano, después de todo el trabajo en equipo, emite como output la traducción.
La pregunta es: ¿comprende AND o alguno de sus compatriotas algo de chino? No, ellos solo aplican reglas computacionales tan simples como meter una bola en un agujero cuando recibes dos bolas a la vez (la puerta lógica AND). En el argumento original de Searle, solo hay un operador humano que, no entendiendo nada de chino, recibe frases en dicho idioma, pero dispone de un libro de reglas que le dice cómo conectar cualquier frase posible con una respuesta con sentido, de modo que es capaz de mantener una conversación competente pasar el Test de Turing con un interlocutor chino.
El operador humano podría entonces hablar chino sin comprender nada de lo que está diciendo que es, exactamente, lo mismo que hacen los ordenadores. Por lo tanto, las máquinas, realmente, no piensan.
Pero la crítica parece surgir de modo natural: Searle está cayendo en la falacia de la composición. Por el hecho de que una parte de Dangun (o todas ellas) no entienda chino, no quiere decir que Dangun, en su totalidad (o, al menos, su módulo de traducción), sí que lo entienda. Searle le está atribuyendo de forma ilegítima, las cualidades de una parte a la totalidad. De acuerdo, pero tanto a Searle como a Dneprov, no les parece ninguna objeción válida. En palabras del ruso:
-"¡Presento una objeción! – gritó el entusiasta de la cibernética, Antón Gorovin -. En este juego de máquinas nosotros representábamos la parte de los relevadores sencillos, es decir, de las neuronas. Pero nadie afirmó hasta el presente que cada neurona del cerebro piense. El pensamiento es el resultado del trabajo colectivo de gran cantidad de neuronas.
-Supongámoslo así – accedió Zarubin -. En tal caso hay que admitir que durante vuestro juego colectivo, en el aire, o no sabemos dónde, vagaban superpensamientos mecánicos ignotos e impalpables por parte de los elementos pensantes de la máquina. Algo muy parecido a la razón universal de Hegel, ¿no es cierto?
Golovin se quedó de piedra y se sentó como un autómata.
-Si vosotros, unidades estructurales pensantes de determinado esquema lógico, no habéis tenido la menor idea de lo que estabais haciendo, ¿se puede hablar seriamente de pensamiento de las calculadoras electrónicas construidas a piezas, sobre cuya capacidad de pensamiento ni siquiera insisten los más entusiastas partidarios del cerebro electrónico? Vosotros conocéis perfectamente estas piezas: válvulas, transistores, matrices magnéticas, etcétera. Me parece que nuestro juego ha resuelto en un único sentido el problema de si la máquina puede o no pensar. Ha demostrado de modo convincente que hasta la más sutil imitación del pensamiento por parte de las máquinas no es el pensamiento: forma suprema del movimiento de la materia viviente."
Efectivamente, desde una perspectiva materialista lo único que existen son los componentes materiales de la máquina por lo que esa supuesta mente que surge o emerge de la cooperación de las partes, se antoja como algo fantasmagórico, espectral, que nos llevaría al viejo dualismo cartesiano difícil de aceptar dado el estado del arte de la neurociencia actual.
Searle opta por hacer que pensemos en una única persona capaz de interiorizar mentalmente todos los procesos electrónicos que realiza un computador que traduce al chino. Alguien capaz de aprenderse todas las reglas lógico-matemáticas que utiliza un computador para realizar tales traducciones. Igualmente, esa persona (que podría ser el propio Dangun) no entendería absolutamente nada de chino aunque pudiera mantener perfectamente una conversación en chino.
En definitiva, que la sintaxis (reglas para componer oraciones bien formadas) es insuficiente para la semántica (comprender el significado de la oración). Las computadoras tienen sintaxis pero carecen por completo de semántica.
Los críticos de Searle ( Dennett, Boden, Cole o Chalmers) volvieron a la carga: para un sistema puramente lógico (las reglas del ajedrez, por ejemplo) la crítica de Searle es válida, pero un ordenador es un sistema mucho más complejo que eso, es un sistema físico causal incrustado en el mundo real. Dennett afirmará que no existe un "programa de ordenador en sí", un "ser platónico" que funciona sin ninguna relación con el mundo material, por lo que parece absurdo decir que las computadoras tienen únicamente sintaxis.
Es más, si profundizamos más en su funcionamiento, las computadoras implementan muchísima semántica al ser diseñadas y construidas. En un ordenador hay millones de transistores que cambian continuamente de estado siguiendo secuencias de voltajes. Al nivel más básico, el ordenador interpreta un nivel de voltaje como "uno" y su ausencia como "cero". El ordenador digitaliza la información, pasando de un todo de corriente continua a un código binario de elementos discretos, y eso puede entenderse perfectamente como una determinada interpretación. Es más, sus diferentes niveles de funcionamiento (desde el lenguaje máquina hasta el lenguaje de alto nivel), están lleno de interpretaciones, de semántica (véanse, por ejemplo, los mnemónicos). ¿Y qué es si no comprender que interpretar?
Pero no, Searle es tenaz, y va a entender comprender de una forma más precisa, retomando un viejo concepto filosófico: la intencionalidad.
Los estados mentales tienen la propiedad esencial de ser intencionales, es decir, de que su contenido siempre es otra cosa diferente a sí mismos. Nuestros pensamientos siempre "refieren", "representan", "se dirigen" a algo, a una referencia. Cuando pienso en mi abuela, mi pensamiento "apunta" a mi abuela, tiene una referencia, en este caso, en algo del mundo real. No podemos imaginar un estado mental sin intencionalidad ¿Un pensamiento vacío? Entonces, pensar es tener estados intencionales y las máquinas parecen no tener ningún tipo de estado intencional. Pensemos en la mente de AND solo existe una regla a seguir: "Dos bolas a la vez, meto una" que no refiere intencionalmente a ninguna palabra o expresión en chino.
Las máquinas virtuales
Es más, la comprensión, entendida tal y como Searle lo hace, puede ligarse a la consciencia. Parece de sentido común que para comprender algo tengo que ser consciente de ese algo ¿Podría yo haber comprendido el significado de la palabra "perro" sin haberme dado cuenta de ello? Si aceptamos la mayor, parece certero concluir que las máquinas no son conscientes de nada por lo que, a fortiori, no se enteran de nada, no pueden comprender nada. Las máquinas no pueden pensar.
Sin embargo, hay, de nuevo, réplicas a este argumento. Por un lado está la algo contraintuitiva postura de autores como Paul Churchland o del mismo Dennett: negar la existencia de la consciencia, entendiéndola como una mera ilusión o como una simple forma de hablar equívoca fruto de un mal uso del lenguaje (tal y como sostenía Gilbert Ryle). No obstante, parece muy difícil negar algo que parece tan evidente como la existencia ontológica de un dolor de muelas (lo que los filósofos llaman qualia: las experiencias subjetivas).
Y por otro lado está Hilary Putnam, el padre del funcionalismo (que es la filosofía que hay detrás de toda la IA), quien entendió la mente como una Máquina de Turing en el sentido que los estados mentales se identificaban con los estados funcionales de la máquina, o dicho en román paladino, las instrucciones que ejecutaba la máquina, el propio programa. El ser humano es un computador cuyo cuerpo es su hardware (concretamente el cerebro) y la mente es el software que controla al primero.
Aunque el mismo Putnam se retractó más tarde de sus ideas, otros pensadores las han mantenido hasta la actualidad. Por ejemplo, el sudafricano Aaron Sloman sostiene que la consciencia, los qualia, son estados computacionales internos que tienen efectos causales sobre la conducta (si me pongo triste entonces lloro). Solo se puede acceder a ellos desde otros elementos de la máquina virtual que conforma la totalidad de la mente (de aquí su privacidad: mis estados mentales no tienen por qué expresarse en mi conducta ni nadie puede acceder a ellos más que yo); y no siempre podemos describirlos mediante niveles superiores de la mente que se supervisan a sí mismos (y de aquí su inefabilidad: a veces no podemos expresar verbalmente cómo nos sentimos).
Para Sloman esto no es entender la mente de una forma fantasmagórica o espectral (tal y como lo hacían Dneprov o Searle), sino completamente realista. Las máquinas virtuales causan nuestra conducta exactamente igual que un programa que se ejecuta en un ordenador causa el movimiento de un brazo mecánico. Nadie diría que el Windows que corre en mi ordenador no es real.
La emergencia de la mente
Otros han visto en la habitación china un mal argumento debido a que parte de una suposición no demostrada, a saber, que es posible construir una máquina puramente sintáctica que hable competentemente el chino. Searle, o Ned Block con su versión blockhead del argumento de Searle, dan por supuesto que el número de conversaciones posibles en chino son finitas cuando potencialmente son infinitas.
Si son infinitas, sería imposible construir una máquina así. No obstante, podría objetarse que si bien habría que hablar de cifras astronómicas (¿trillones de combinaciones?) no serían infinitas debido a que se busca que la máquina sea competente para pasar el Test de Turing. En ese sentido, si bien hay infinitas formas de responder a un saludo, con solo unas pocas que hicieran que la máquina respondiera de forma coherente nos bastaría.
Sin embargo, pronto nos encontrarnos con conversaciones que solo pudiesen ser respondidas de forma coherente si la máquina comprendiera el sentido. Es un clásico el siguiente ejemplo: Supongamos que tenemos a un cliente que llega a un restaurante y pide una sopa. Después de probar una única cucharada, llama al camarero y habla con él. Inmediatamente después abandona el restaurante dejándose el resto de su sopa intacta. La cuestión es: ¿dejó el cliente propina?
Para responderla hay que comprender muchas cosas que no se dicen explícitamente en las frases. Hay que tener conocimiento implícito como suponer que si alguien no se come su hamburguesa es porque no le ha gustado, y que si la comida de un restaurante no te gusta es poco probable que dejes propina. Ese conocimiento implícito, que no se expresa proposicionalmente, solo puede obtenerse si hay una mínima comprensión contextual de lo que se está hablando. Entonces, una máquina ha de incorporar algún tipo de semántica si quiere hablar bien chino. Una máquina sintáctica tal y como la plantea Searle no pasaría el Test de Turing.
Entonces, si la sintaxis puede incorporar semántica (y debe hacerlo si quiere ser lingüísticamente competente), entonces de la complejidad necesaria para superar el Test de Turing surgirá la semántica, y, según algunos autores, acaecerá la comprensión y, por tanto, también la consciencia.
Esta emergencia de la consciencia encaja bien con una de las teorías más populares sobre la consciencia: la teoría de la integración de la información (IIT) del psiquiatra italiano Giulio Tononi. Esta teoría sostiene que nuestros sentidos son capaces de captar una enorme cantidad de información diferente (pensemos en la riqueza de la percepción visual), además desde diferentes modalidades sensoriales (visión, oído, tacto…), pero, a nivel consciente, se nos presenta completamente integrada. Entonces, allá donde exista integración de información existirá consciencia en algún grado. Nuestra máquina semántica integraría información por lo que podría ser consciente.
Pero si llevamos la IIT a sus máximas consecuencias tenemos que gran parte del mundo natural (y artificial) es consciente en alguna medida. El dispositivo desde el que ahora lees este artículo integra información por lo que sería consciente… ¿Es, de verdad, consciente? Por no hablar, por ejemplo, de que una red global con tal flujo e integración de información como es internet podría desarrollar una súper consciencia muy superior a la humana… Lo siento pero no me lo creo.
¿Piensan realmente las máquinas?
¿Es el argumento de la habitación china definitivo o tienen razón sus críticos? Creo que a día de hoy nadie puede negar que las máquinas son inteligentes, sea cual sea nuestra noción de inteligencia (definirla es uno de las grandes controversias de la psicología). Indudablemente son mucho más inteligentes que nosotros en tareas específicas y en entornos muy formalizados, aunque todavía son muy estúpidas para tareas generales y entornos confusos (el gran reto de la IA es la IAG), aunque, poco a poco, van mejorando.
¿Comprenden lo que hacen? Si entendemos comprender por realizar operaciones siguiendo conocimiento semántico, sí, desde hace muchísimo. Un ejemplo muy claro está en SHRDLU de Terry Winograd, un programa creado a finales de los años sesenta del siglo pasado, capaz de explicar verbalmente su comportamiento en un entorno tridimensional de formas geométricas. SHRDLU cumplía instrucciones a partir de información semántica y era capaz de explicar por qué hacía lo que hacía.
Sin embargo, si entendemos comprender en un sentido fuerte tal y como lo hace Searle, como tener conocimiento consciente de algo, tenemos que sostener que las máquinas, al menos a día de hoy, no comprenden absolutamente nada ya que son absolutamente inconscientes. Por mucho que nos diga la IIT, mi tablet no tiene consciencia en ningún grado. Tendrá todavía que pasar mucho tiempo hasta que nuestro conocimiento del cerebro avance y podamos replicar computacionalmente los mecanismos biológicos que generan consciencia.
El fin de Dangun
Destruir Dangun puede parecer difícil ya que no tiene ninguna unidad central de procesamiento. Al ser un enorme sistema de redes neuronales artificiales, la destrucción de una de sus partes no destruye el todo como ocurría en los antiguos ordenadores de funcionamiento serial. Ya tuvimos varios atentados y Dangun pudo repararse sin demasiados contratiempos (más bien se autorreparó el mismo).
Sin embargo, tiene un punto débil: la energía que necesita para su funcionamiento. Para alimentar su insaciable sed de electricidad hacen falta doce reactores nucleares funcionando en paralelo. La fusión de uno de ellos provocaría una reacción en cadena que haría explotar los demás, llevando a una detonación de más de cincuenta kilotones… una explosión nuclear que dejaría a Hiroshima a la altura de un petardo de feria.
Me encuentro en la cornisa del piso 67 del teraedificio 1.924 del Departamento de Energía de Dangun, en la ciudad de Paekam. Desde esta altura contemplo a mis pies el reactor seis. En mi abdomen llevo adosados doce kilos de RDX. Me lanzaré al vacío y, cuando esté a unos metros del reactor, detonaré el explosivo. Será el fin de Dangun.
No puedo seguir viendo a mi pueblo guiado por un zombi, por un amasijo de circuitos desalmado. Finalmente Searle me convenció y ahora debo liberar a Corea de este gran engaño, de esa ilusión de pensar que estábamos siendo gobernados por un auténtico dios encarnado que nos llevaría al Nirvana comunista. Mi verdadero nombre es Chin-Mae, antes conocido como Puerta lógica AND 453.445 CCDW.
Fotos | iStock, FranksValli, Hilary Putnam
También te recomendamos
El día después de que podamos subir nuestro cerebro a un ordenador y replicarlo en otro lado
Este San Valentín enamórate del amor, de quien tú quieras y como te dé la gana
El día en que las máquinas puedan elegir: la paradoja del libre albedrío en robots
-
La noticia Dentro de la habitación china: ¿algún día sabremos si las máquinas piensan? fue publicada originalmente en Xataka por Santiago Sánchez-Migallón .
Fuente: Xataka
Enlace: Dentro de la habitación china: ¿algún día sabremos si las máquinas piensan?
Comentarios
Publicar un comentario