Inteligencia artificial. Un reto para el jurista

Empecemos con un pequeño ejercicio de lógica.

“Todos los estudiantes de derecho son miopes

Algunos miopes no toleran las lentillas

Luego algunos estudiantes de derecho no toleran las lentillas”

¿Es correcto o no este razonamiento? El lector sólo tiene tres segundos para responder a esta pregunta.

Ya ha pasado el tiempo. ¿Cuál es la respuesta? Si no hemos dedicado más tiempo que el concedido, estoy seguro de que la mayor parte de los lectores ha respondido afirmativamente, es decir, ha considerado correcto el razonamiento.

Y sin embargo, el razonamiento es incorrecto, al menos, lógicamente incorrecto.

Para darnos cuenta de ello quizá necesitemos un poco más de tres segundos. La primera proposición o premisa afirma que todos los estudiantes de derecho son miopes. Por tanto, dentro del universo de las personas que padecen miopía están comprendidos todos los estudiantes de derecho. La segunda proposición nos informa de que algunos miopes son intolerantes a las lentillas. Es decir, dentro del universo de las personas miopes hay un grupo que no tolera las lentillas. Si estas son nuestras dos premisas, la conclusión no es correcta porque esas dos afirmaciones son compatibles con una situación en la cual el grupo de los miopes que no toleran las lentillas no incluye a ninguno de los estudiantes de derecho –todos ellos miopes, como sabemos-. Las dos premisas, de ser ciertas, son compatibles con estados del mundo en los que todos los estudiantes de derecho son intolerantes a las lentillas, o sólo algunos estudiantes de derecho son intolerantes a las lentillas o incluso ningún estudiante de derecho es intolerante a las lentillas. Por tanto, la pretendida conclusión no se sigue necesariamente de las premisas. Se trata de un falso silogismo o “paralogismo”. Algo que parece un silogismo, pero no lo es. De hecho, se comete una sutil trampa cuando lo que debería ser la segunda premisa -la que contiene el sujeto de la conclusión- se coloca en primer lugar, mientras que la primera premisa –la que contiene el predicado de la conclusión- se presenta en segundo lugar. De esta manera, al encontrarnos en primer lugar con un enunciado de tipo universal –todos los estudiantes de derecho son…-, el razonamiento tiene más pinta de silogismo. Si reordenamos las dos premisas (algunos miopes no toleran las lentillas; todos los estudiantes de derecho son miopes; luego…), el salto o inconsecuencia lógica quizá se detecta con más facilidad.

Para verlo más claro podemos ensayar una representación gráfica del asunto. Dibujamos un círculo bien grande que representa a todos los miopes del mundo. Con un círculo más pequeño representamos a todos los estudiantes de derecho del mundo. Necesariamente, este círculo más pequeño debemos dibujarlo en su integridad dentro del círculo de los miopes (porque nuestro razonamiento parte de la premisa de que todos los estudiantes de derecho son miopes). Por último, tenemos que dibujar un tercer círculo –que es el que más nos interesa- que representa a todos los sujetos intolerantes a las lentillas. ¿Dónde y cómo dibujamos este círculo? Pues hay unas cuantas posibilidades. Necesariamente debe ser secante en alguna medida respecto del círculo de los miopes, porque algunos miopes tienen la propiedad de la intolerancia a las lentillas. Pero, cumpliendo ese requisito, tenemos, como digo, varias posibilidades. Invito al lector a que por sí mismo, con papel y lápiz, juegue a la lógica de conjuntos y dibuje todas las posibles combinaciones de círculos compatibles con las dos premisas.

Pero aún hay otra forma de tratar el problema: simplifiquemos o “formalicemos” nuestro lenguaje. Así, sustituimos la expresión “todos los estudiantes de derecho son miopes” por la siguiente: “todo A es B”; la expresión “algunos miopes son intolerantes a las lentillas”, por “algunos B son C”; y nuestra conclusión pasaría a ser “luego algunos A son C”. Podríamos utilizar una notación más sofisticada como “para todo x, si x es A entonces x es B” (∀x A(x) → B(x)); pero lo importante es que hemos reemplazado unos términos que tenían un determinado significado, que hacían referencia a ciertos conjuntos o clases de entes o realidades existentes en el mundo (estudiantes de derecho, miopes, intolerantes a las lentillas) por unos símbolos (A, B, C) con los que se puede hacer referencia a cualesquiera conjuntos de entes o realidades. Podríamos decir que hemos eliminado toda la “semántica” de nuestro razonamiento y nos hemos quedado sólo con la “sintaxis”: con la posición de sujeto o predicado que cada uno de los términos (A, B, C) ocupan en cada una de las proposiciones y con unos “cuantificadores” que modalizan el alcance de esos términos (todos, algunos). Reducido el razonamiento a su sintaxis –o dicho de otra forma, a su estructura formal-, es posible y fácil un “cálculo” puramente formal que nos permite verificar la corrección del razonamiento. Según ese cálculo, una estructura todo A es B, algún B es C, luego algún A es C, claramente no es válida; mientras que sí es válida una estructura de este otro tipo: todo A es B, todo B es C, luego todo A es C. Y ello –y esto es lo importante- sean cuáles sean los términos con contenido semántico propio que se simbolizan en cada caso mediante las letras A, B y C. En definitiva, se trata de reformular las expresiones del lenguaje natural que habitualmente empleamos transformándolas en proposiciones compuestas con símbolos formales normalizados, lo que a su vez nos permite mantener bajo estricto control y “computar” nuestro razonamiento.

Formalización, informática e inteligencia artificial

Este tipo de formalización y de análisis del razonamiento humano lo llamamos “lógica”, o “lógica formal”, y fue inventado por Aristóteles allá por el siglo IV a.C. Y esta misma lógica, con una serie de adaptaciones –en especial, lo que se conoce como el “álgebra booleana”, que opera con estados binarios sí/no, verdadero/falso, 0/1-, es lo que se encuentra precisamente en la base de la tecnología informática que actualmente manejamos: nuestros ordenadores serían en esencia máquinas lógicas, herramientas que calculan o computan mediante lenguajes altamente formalizados y que en último término lo que hacen es manipular símbolos.

Y la informática, a su vez, es la base tecnológica sobre la que se sustenta el proyecto de la llamada “inteligencia artificial” del que comienzo a hablarles en este post. Un proyecto éste –el diseño y fabricación de máquinas que emulan el pensamiento humano- que constituye uno de los temas claves de nuestro tiempo, por no decir la cuestión más importante que tenemos ahora todos entre manos. Y si digo “todos” es porque, aunque científicos, ingenieros y tecnólogos son los que llevan la iniciativa en este asunto, es algo con lo que ya absolutamente todos estamos conviviendo y puede afectar radicalmente a nuestras actividades y a nuestras vidas.

El jurista ante la Inteligencia Artificial

Y en concreto, para los juristas es un tema ya ineludible por dos motivos.

Primero porque el desarrollo de programas, sistemas, dispositivos o artefactos cada vez más “inteligentes”, capaces y autónomos va a ir cambiando nuestro entorno social y generando situaciones problemáticas y conflictivas tanto desde el punto de vista ético como jurídico completamente inéditas, que van a requerir del legislador y también de los juristas un esfuerzo de reflexión y de adaptación. Por apuntar sólo algo: el accidente del coche autónomo, ¿a quién reclamamos?, ¿al fabricante?, ¿al propietario?, ¿al Estado por no mantener correctamente la señalización de la carretera?, ¿al propio automóvil personificado y dotado de su fondo patrimonial responsable?; también los problemas que pueden suscitar sistemas de diagnóstico y asistencia sanitaria completamente automatizados; para no hablar de la posibilidad de armas de guerra o policiales autónomas, capaces de decidir y ejecutar un ataque letal por sí solas. También va a resultar cada vez más ineludible la cuestión –de economía política, pero también con incidencia en el derecho fiscal y en el derecho laboral y de seguridad social- de qué hacer con la masa de población creciente que va a ser expulsada del mercado de trabajo por la mecanización y automatización de muchas tareas (¿formación continuada a costa de quién?, ¿tributación especial sobre las empresas que reemplazan seres humanos por máquinas, o sobre las que fabrican robots, o sobre los propios robots?, ¿renta básica universal?…). En definitiva, nuevas realidades –y muchas de las que se avecinan van a ser muy pero que muy nuevas- van a requerir un nuevo derecho.

Pero hay otra cuestión relacionada con la inteligencia artificial que a nosotros los juristas nos afecta de forma más específica e íntima: la posibilidad de que la propia actividad de los juristas, en esencia, la aplicación de normas, reglas o criterios generales a la resolución de casos concretos –algo que desde los tiempos del Código de Hammurabi y a lo largo de los siglos se ha venido practicando de forma sustancialmente invariada-, pueda llegar a ser asumida por máquinas.

¿Es esto posible?, ¿conveniente? Que no nos mande a la cárcel un juez humano, o que no resuelva el recurso administrativo contra una infracción de tráfico un funcionario humano, sino en ambos casos un programa informático, capaz de resolver los asuntos (miles de ellos) con objetividad y rigor algorítmicos, sin sesgos cognitivos y a velocidad electrónica, sin fatiga ni pausas para el café ni vacaciones.

Que jueces electrónicos terminen reemplazando a los jueces de carne y hueso –la cuestión por excelencia que plantea la inteligencia artificial en el plano jurídico-, pero también que sistemas expertos electrónicos nos asesoren en materias jurídicas, diseñen estrategias procesales o redacten e incluso negocien nuestros contratos –mientras escribo estas líneas se ha publicado la noticia de que el programa Pluribus, desarrollado en la Universidad Carnegie Mellon con el apoyo de Facebook (y también de la Oficina de Investigaciones del Ejército de los Estados Unidos, inquietante, ¿no?), ha sido capaz de derrotar a cinco campeones de póker en una partida a seis, lo que supone nada menos que la habilidad de operar con éxito en un entorno de información imperfecta, donde uno lanza faroles y ha de detectar los ajenos-, es algo que en último término es un problema no de pura ingeniería, sino de naturaleza lógica y epistemológica, de teoría del conocimiento o de filosofía en general. ¿Puede realmente una máquina razonar, o mejor, pensar de la forma en que lo hacemos los seres humanos? ¿Puede llegar a “comprender” lo que realmente está en juego en un caso para aportar una decisión que reputemos “adecuada”?

Aquí está exactamente el quid de todo el problema.

Inteligencia más allá de la formalización y la manipulación de símbolos

Y para entender en qué estado se encuentra el proyecto de la inteligencia artificial y lo que algunos o muchos esperan de él, es necesario que volvamos a nuestra pregunta inicial: ¿es correcto el razonamiento sobre los estudiantes de derecho y las lentillas? Habíamos concluido que no y quiero pensar que el lector quedó convencido de ello.

Pues bien, ahora voy a desdecirme. Porque creo que debemos reconsiderar un poco el asunto.

Es cierto que la inferencia que apoyaba la conclusión era lógicamente incorrecta. Pero el razonamiento no era en absoluto descabellado, sino más bien bastante razonable. Si todos los estudiantes de derecho son miopes y algunos son intolerantes a las lentillas, lo más probable es que algunos o unos cuantos estudiantes de derecho sean también intolerantes a las lentillas. Porque en la realidad hay muchos estudiantes de derecho y porque la intolerancia a las lentillas no es algo anómalo ni extraordinario, de manera que lo realmente raro es que ni uno solo de los muchos estudiantes de derecho miopes fuera intolerante a las lentillas.

De manera que un razonamiento incorrecto en términos de lógica formal –de lo que se conoce como lógica de predicados de primer orden- puede sin embargo acercarnos bastante a la verdad.

Y si nos damos cuenta, lo que hemos hecho en este replanteamiento del asunto es desandar el camino de esa “formalización” que es propia del análisis puramente lógico del razonamiento humano. No nos hemos limitado a la “sintaxis” -a la pura forma o estructura del razonamiento-, como hacen los lógicos, sino que hemos rellenado nuestras fórmulas de “semántica”, de significado, de conocimiento del mundo real. Hemos reemplazado otra vez el símbolo abstracto A por “los estudiantes de derecho”, el símbolo B, por “ser miope”, y el símbolo C, por “ser intolerante a las lentillas”. Y estos términos, propios del lenguaje natural, nos aportan un significado y un conocimiento que hacen que el razonamiento resulte plausible.

Y este pequeño ejercicio creo que nos puede servir para aproximarnos al verdadero problema técnico de fondo del proyecto de la inteligencia artificial: como ya anticipé, en su planteamiento originario, los ordenadores son máquinas lógicas, manipuladoras de símbolos formales. Y eso –por ejemplo, calcular una raíz cuadrada o dividir por un divisor de cuatro cifras- lo hacen mucho mejor que nosotros, con más seguridad e infinitamente más rápido (a una velocidad próxima a la de la luz). Como también verificar la corrección de deducciones o inferencias de lógica proposicional. De hecho, el primer proyecto operativo de IA conocido, el Logic Theorist, presentado por Newell y Simon en la ya legendaria Conferencia de Dartmouth celebrada en el año 1956 y en la que se reunieron diez reputados pioneros de este nuevo campo de la tecnología (donde se acuñó el propio término “inteligencia artificial”), era un programa experto en inferencias deductivas, que consiguió demostrar 38 de los 52 teoremas formulados por Bertrand Rusell y Alfred Whitehead en sus Principia Mathematica.

Al ser humano medio todo eso le cuesta mucho más. Pero, sin embargo, somos muy buenos y muy rápidos (como habremos podido comprobar con nuestro razonamiento sobre las lentillas) para las inferencias informales, para los “entimemas”, para derivar conclusiones plausibles de un simple indicio, o, como dicen los anglosajones, to jump to conclusions, algo que muchas veces nos conduce a errar, pero que no deja de ser una importante habilidad intelectual que nos ayuda a avanzar por terrenos inciertos, a dar el salto para ir más allá de lo que nos viene dado. La lógica deductiva es rutinaria –como los algoritmos, que sólo son instrucciones que hay que seguir mecánicamente-, y se limita a desplegar o hacer explícito lo que estaba implícito en unas premisas dadas. Pero encontrar las premisas apropiadas que sirven de base a un razonamiento, o anticipar una posible conclusión, hipótesis o conjetura que luego pondremos a prueba (lo que se conoce como “abducción”) no es una actividad que se pueda someter fácilmente a reglas, para la que se pueda diseñar una rutina o algoritmo. Son ideas que aparecen en nuestra mente de forma casi inconsciente, por “intuición”, solemos decir. También por experiencia y conocimiento del mundo, por todo lo que hemos vivido antes.

De hecho, una parte muy importante de nuestro cotidiano actuar “inteligente” –desde simplemente andar por la calle sin ser atropellado, conducir un automóvil, reconocer a las personas de nuestro entorno, mantener una conversación banal en nuestro idioma materno entendiendo lo que se nos está diciendo y construyendo las frases que pronunciamos-, es algo que hacemos “sin pararnos a pensar en ello”. Incluso, si intentáramos razonar lo que estamos haciendo, nos terminaríamos trabucando.

Y la cuestión es: ¿somos capaces ya o lo seremos pronto de diseñar y fabricar artefactos que no sólo manipulen a toda velocidad símbolos formales, sino que puedan “habérselas con el mundo” de forma análoga a como lo hace un ser humano?

La respuesta a esta pregunta requiere explicar los diferentes caminos por los que ha ido discurriendo el proyecto de la inteligencia artificial desde los años cincuenta del pasado siglo: del diseño de “sistemas expertos” en un sector muy específico del conocimiento y la actividad humana a la pretensión de “formalizar” todo nuestro conocimiento del mundo; del planteamiento cognitivista y logicista centrado en los procesos de razonamiento consciente, de manipulación de símbolos formales (“the good old-fashioned AI” o GOFAI), a la IA “subsimbólica”, centrada en el reconocimiento de patrones y en la pretensión de replicar el funcionamiento del cerebro como órgano físico mediante la creación de “redes neuronales” artificiales, capaces de procesamiento no secuencial sino en paralelo y también de “aprender” por sí mismas, de sus propias experiencias.

Pero todo esto queda para otra ocasión.

 

Gracias por compartir!