¿Puede abordarse la pregunta por la inteligencia artificial sin abordar la pregunta por la inteligencia misma? ¿En qué puntos debe parecerse una IA a una inteligencia humana para que hablemos de verdadera inteligencia artificial? Sin duda, abordar estas cuestiones es crucial para despejar este terreno cargado de publicidad mesiánica y anuncios apocalípticos a partes iguales. Si es posible o no una inteligencia artificial de nivel humano tranquilizará a unos y frustrará a otros, pero no es el objetivo de este texto cerrar ninguna frontera. Más bien se trata de un intento de acotar, a partir de la nueva irrupción pública de la inteligencia artificial, el propio concepto de inteligencia humana. De este modo, así lo espero, podemos limpiar de ruido las enormes expectativas sobre el advenimiento inminente de una IA de nivel humano. ¿Estamos de verdad tan cerca de este objetivo o nos estamos dejando llevar por el entusiasmo de una burbuja económica? Lo que pretendemos aquí es levantar alguna frontera difusa- y siempre abierta-, que ayude a distinguir lo que es diferente. Lógicamente, distintos grados de pormenorización darían lugar a fronteras distintas, más o menos sólidas, entre disciplinas, conceptos y expectativas. Esta sería una aproximación clarificadora; un modo de facilitar el debate abordando primero un tema que suele dejarse de lado, aunque es la base del asunto: de qué hablamos cuando hablamos de inteligencia humana, mente, etc; para confrontar después con la realidad de la IA: qué itinerarios ha escogido la investigación y el desarrollo de la IA, cuánto tienen que ver estas rutas tecnológicas con lo que la inteligencia humana verdaderamente es.
Hay, en mi opinión, tres rasgos esenciales de la inteligencia humana que, además de definirla y distinguirla de otras inteligencias animales, marcan la diferencia en cualquier comparación con la tecnología, y que tienen a la vez la virtud de encajar (o encajarnos) en el mundo de la vida, de cumplir con nuestro carácter orgánico. En primer lugar, la inteligencia humana no es dependiente del paradigma de la información. Esta afirmación puede parecer paradójica en plena era de la información, pero estoy convencido de que es así y veremos por qué. En segundo lugar, la inteligencia humana está corporeizada; el ser humano es un cuerpo (lo que sea además de esto y su relación con el cuerpo no elimina esta obviedad tan poco tenida en cuenta). Pero, además, la inteligencia humana habita el lenguaje y es habitada por éste. Ya veremos como el lenguaje computacional y el lenguaje humano difieren de manera radical.
¿Qué quiere decir que la inteligencia humana no esté ligada al paradigma de la información? Los seres humanos, y la mayoría de seres vivos, actuamos en contextos de carencia informativa. No esperamos ampliar nuestra información para realizar deducciones más eficaces, sino que realizamos inferencias abductivas desde una suerte de sentido común al margen de toda deducción. Esto puede parecer exagerado, pero la mayoría del tiempo actuamos bien en términos adaptativos, damos respuestas sociales acertadas, que una IA no puede replicar fácilmente debido al nivel básico y fundamental de esas respuestas. En realidad, no sólo interiorizamos respuestas, como un programa informático, sino que, de manera fundamental, aportamos sentido a los contextos, lo que nos permite responder a partir de aprendizajes amplios.
La cuestión del sentido es fundamental en este punto. El ser humano no tiene inputs en el sentido computacional. No percibimos el mundo sin más, sino que lo dotamos de sentido. ¿Pero qué significa esto? El sentido- y esta es la clave-, no se deduce del significado de las cosas, sino que aparece al lado del significado para condicionarlo. Es en sentido literal una aparición. Se relaciona con el contenido de las cosas, pero no deviene de ese contenido, sino que aparece junto a él, lo condiciona en un primer nivel y es ajustado después por ese contenido mismo, de manera que el sentido, por ese mutuo condicionamiento, cambia y evoluciona. Ahora veremos un ejemplo, pero la idea es que el sentido es situacional; dice desde donde significan las cosas, y no se puede deducir de ellas.
Vamos con un ejemplo. Hace un par de años hubo una oleada de memes en internet que proponían un juego divertido. Los memes consistían en una imagen, un texto en inglés y una traducción al español que no corresponde con el significado en inglés, pero que dentro del meme tiene sentido. Un sentido cómico, en este caso, que se convierte en el lugar desde donde entender el contenido entero del meme. Un niño coge a un gato por las patas como si fuera una ametralladora; lo acompaña un texto en inglés que dice “Michigan”; y una traducción al español: gato pistola. En otra imagen, una foto de San Sebastián, el texto “Mr Punch” y la traducción Donostia. Estos memes nos plantean claramente la cuestión del sentido. No deducimos el sentido a partir del significado de las cosas (porque Michigan no significa gato pistola). El sentido aparece al lado del significado para condicionarlo. Y como no es una deducción, es difícilmente reductible a términos computacionales. El sentido no depende de la información. Se relaciona con ella, la condiciona, tiene que ver, pero no deriva de ella y la desborda.
En el caso de la IA el sometimiento a la información es radical, hasta el punto de no poder escapar a una limitación de fondo que borra todo parecido con lo orgánico. Las IA necesitan un sesgo de aprendizaje para saber qué aprender, pero este sesgo, que hará cada vez más eficaces las respuestas en un conjunto de tareas determinado, capa la posibilidad de aprendizajes amplios al modo intuitivo de los seres humanos. Por el teorema “no free lunch”, cuanto más eficaz es una IA más inútil es al mismo tiempo. Por ejemplo, para que una IA aprenda a jugar al ajedrez hay que introducir los sesgos necesarios para que sepa cómo discriminar aquello que es útil para su tarea de lo que es accesorio y se puede descartar. Además, esta selección artificial afinará el sesgo de aprendizaje, lo que hará a la IA cada vez más eficiente a la hora de seleccionar para seguir aprendiendo. Sin embargo, a medida que se hace mejor jugadora de ajedrez, perderá poco a poco su capacidad para ampliar aprendizajes, porque su aprendizaje inicial depende de saber excluir todo lo que no es útil para esa primera tarea. Cuanto mejor sea para el ajedrez, más difícil será enseñarle a jugar al go, por ejemplo.
Todo lo contrario ocurre con los seres humanos. Una campeona de ajedrez, una vez que interiorice las normas básicas del go, podrá jugarlo a un nivel superior al de otro novato del go que no tenga su nivel de ajedrez. Esto es así porque los seres humanos ampliamos nuestro margen general de aprendizaje con cada aprendizaje, lo que en términos de IA es aberrante. Todas las IAs son restrictivas porque sólo pueden realizar deducciones. Y esto es así porque su paradigma es informativo. No pueden desarrollar un sentido común porque éste es falible desde el punto de vista de la información disponible. No responde al conocimiento adquirido, sino a condiciones situacionales inalcanzables para la IA (algunas de ellas relativas a ser un cuerpo), y a donaciones de sentido que en el ser humano son inevitables, pero que para la IA son inalcanzables, porque el sentido de las cosas no deriva del significado.
Lo anterior degenera en un problema de fondo que preocupa a los tecnólogos desde Alan Turing: la dificultad de la inferencia abductiva. Por la dependencia de la IA a la información, ésta puede realizar deducciones rápidas y finas. Cuanta más información tenga, mejores serán las deducciones. Pero estas mejoras en la capacidad deductiva no suponen un salto hacia la capacidad de abducción, fundamental en el mundo orgánico del ser humano. Curiosamente, la inferencia es una forma de razonamiento con un margen de error relativamente alto. Un ejemplo clásico nos dice que, si he visto mil cisnes blancos, puedo inferir que el color blanco es un rasgo fundamental del cisne y actuar en consecuencia. Pero la imposibilidad de ver todos los cisnes del mundo me impide estar seguro de mi razonamiento. En realidad, puede que en algún momento me encuentre con un cisne negro y me vea obligado a modificar mi descripción de los cisnes porque, de hecho, existen cisnes negros. Aquí no se trata de establecer un criterio de veracidad y elegir entre la deducción y la inferencia, sino de señalar que los seres humanos podemos hacer las dos cosas y la IA no; y que, además, la mayor parte del tiempo nos desenvolvemos en el mundo de la mano de ese sentido común que es la inferencia y acertamos, porque no hace falta que todos los cisnes del universo sean blancos cuando mis respuestas se dan en un solo estanque. La abducción está descartada como criterio del método científico. Pero nosotros sólo nos movemos en ese nivel cuando hacemos ciencia. El problema de cara a la IA es que la inferencia, aunque sea muy limitada, no es una forma elaborada de deducción. De hecho, la inferencia es irreductible a la deducción, por lo que mejorar la capacidad deductiva de la IA no dará lugar a una habilidad para la inferencia abductiva. No es posible computar, informatizar o digitalizar la abducción. El sentido común, esa herramienta llena de errores que casi unca es común pero que usamos permanentemente, precisamente por ser tan básica en la naturaleza humana, no es replicable por la IA. Y no lo es hoy ni lo será mañana si la investigación no asume esta limitación y corrige los actuales itinerarios tecnológicos. La capacidad humana de dar sentido desde la carencia enorme de información nos define, qué le vamos a hacer. (Por cierto, seguramente por esto no sirve de mucho informar para cambiar los comportamientos, como vemos a menudo en las elecciones políticas en la Comunidad de Madrid).
El segundo problema de base es la naturaleza corporal de la inteligencia humana. El ser humano no es un alma que tiene un cuerpo. El ser humano es un cuerpo, eso lo sabemos con certeza. Desconocemos los mecanismos que dan lugar o explican por completo nuestra conciencia y nuestra inteligencia. Pero sí sabemos que toda respuesta humana está corporalmente situada. Veamos el ejemplo de una tarea tan sencilla como percibir con la vista un objeto. En el enfoque clásico se nos diría que el objeto refleja ondas que al impactar con nuestros ojos se transmiten a la corteza occipital, donde se produce la imagen; desde ahí se re-transmite a distintos centros relacionados con la memoria, las emociones, las tareas motoras, etc. Pero hoy sabemos que esto no es del todo así. Lo que ocurre es que ese primer estímulo trasmitido desde nuestros ojos, antes de llegar a la corteza cerebral pasa por el núcleo geniculado lateral, donde recibirá una cantidad ingente de estímulos del hipocampo y otras áreas, incluidas las áreas motoras. Al final, lo que sale del NGL hacia la corteza occipital es en un 80% contenido relacionado con el estado y la situación del cuerpo. La imagen que se forma en la corteza sólo está un 20% basada en el objeto original; en su gran mayoría esta imagen contiene la relación del cuerpo que somos con el mundo que habitamos. ¿Cómo se traslada esto a una inteligencia descorporeizada?
Por último, tenemos que considerar el papel del lenguaje en la vida humana. Como consecuencia de los dos rasgos anteriores, el lenguaje humano no es un mero vehículo de transmisión de contenidos o comandos. Ni siquiera se limita a expresar lo que pensamos con nuestra inteligencia diferenciada. En los seres humanos el lenguaje desborda al pensamiento; no es un vehículo de expresión de un contenido ya fijado, sino que la expresión misma es la que temporalmente y de forma precaria fija el pensamiento. Si bien existen contenidos de conciencia antepredicativos, previos al lenguaje, su emergencia sólo es posible en relación con éste, siquiera por contraste. A través de un número limitado de signos y reglas producimos novedades. Incluso transformamos el lenguaje con su uso. Las palabras cambian por dos cosas. Porque el lenguaje es un elemento constitutivo del pensamiento que expresa, y el pensamiento cambia; y porque nos equivocamos. El error es esencial para la evolución de la vida. Sin error sólo hay réplicas, al modo de la IA. Son las mutaciones las que conducen la evolución de los sistemas complejos.
En definitiva, estamos lejos de alcanzar el sueño de Turing. Si las rutas tecnológicas trazadas hoy por los grandes desarrolladores de IA son o no las mejores para abordar estos límites será asunto de otro texto. Pero para no caer en el pesimismo conviene recordar que ya existe una inteligencia de nivel humano: la nuestra.
Comments