• Inicio
  • Blog
  • Sobre la personificación jurídica de la inteligencia artificial (II)

Sobre la personificación jurídica de la inteligencia artificial (II)

8 mayo 2020

La primera parte de este pequeño ensayo concluía con una referencia a la distinción entre IA situada e IA no situada y a la necesidad de una reflexión jurídica específica sobre esta cuestión en la medida en que puede tener una gran relevancia a la hora de plantear el posible tratamiento jurídico de la IA.
Lo primero que se puede señalar al respecto es que los propios científicos y tecnólogos se plantean la cuestión de si el logro de una verdadera IA “fuerte” o de tipo general, parangonable a la del ser humano (con la flexibilidad, adaptabilidad, creatividad y eso tan importante que conocemos como “sentido común”, que caracterizan a la inteligencia humana), sólo es posible en el ámbito de la IA situada, por la razón ya indicada de que sólo desde una corporalidad individual se puede construir una verdadera inteligencia, en particular una inteligencia autoconsciente. De manera que todos los desarrollos de IA no situada no llegarían a traspasar nunca el ámbito de la IA débil o de tipo específico, de los llamados “programas expertos”. (En la interesantísima película “Her”, de Spike Jonze, Samantha, el asistente virtual incorpóreo con la voz de Scarlett Johansson que dialoga con el protagonista, se vale precisamente de dispositivos periféricos que activa éste para conseguir una visión del mundo en su proceso de aprendizaje y autoformación, como se nos muestra en la muy impactante escena de la visita a la playa).

La condición “digital” de la IA la hace transparente, reprogramable y replicable


Pero, yendo un poco más allá, lo que hemos de plantearnos es que, situada o no situada, fuerte o débil, de propósito general o específico, la IA que venimos desarrollando y que consideramos actualmente concebible se basa precisamente en la tecnología informática y, por tanto, termina concretándose siempre en información y programas digitalizados. Y esta es una cuestión técnica que tiene unas implicaciones jurídicas que no podemos ignorar (code is law).
La inteligencia y la conciencia humana, por definición, está corporeizada y como consecuencia de ello individualizada, singularizada. Podríamos decir: un cerebro, una inteligencia. Y eso singular o peculiar que guarda en su interior cada cerebro humano individual es algo que nos sigue resultando fundamentalmente opaco (y que sólo llegamos a conocer parcialmente mediante esas exteriorizaciones que son los actos lingüísticos y la comunicación no verbal). Por mucho que hayan avanzado la psicología cognitiva, la neurofisiología, la biología molecular o la física de partículas (y también las tecnologías de resonancia magnética o de tomografía TAC), lo cierto es que los científicos siguen reconociendo que no saben realmente cómo funciona nuestro cerebro. Más allá del asunto de que unos estímulos bioeléctricos que circulan por las intrincadas redes de conexiones interneuronales cuando superan determinados umbrales de intensidad activan ciertos grupos de neuronas, desconocemos por completo cómo se salva el abismo entre mente y materia, cómo se registra y manipula a un nivel celular y molecular una información tan compleja como la que somos capaces de procesar y manejar. La equiparación que, en la senda de Alan Turing, muchos postulan entre el cerebro y un ordenador o computadora de momento no pasa de ser una metáfora. En concreto, no sabemos cómo se codifica materialmente la información en la carne de nuestro cerebro, lo que sería la lógica última de nuestro sistema operativo: cómo una determinada estructura o configuración estática o dinámica de conexiones neuronales o de estados bioeléctricos o bioquímicos representa y guarda la imagen del rostro de una persona que conozco o una melodía de los Beatles. Y ello porque el sistema de signos o símbolos físicos mediante los que nuestro cerebro “mapea” (otra metáfora) la realidad, y registra y computa la información y que sirve de instrumento a nuestra conciencia no lo hemos creado conscientemente nosotros y no nos resulta en absoluto transparente, a diferencia de lo que sucede con los sistemas informáticos que sirven de base a los ingenios de IA que hemos fabricado.
Los microprocesadores y los dispositivos artificiales de memoria los hemos diseñado nosotros y, sobre todo, nosotros hemos creado artificialmente todos los códigos y capas de lenguaje que integran la parte lógica de la informática, lo que llamamos software, en particular, el código máquina, esas cadenas de ceros y unos de código digital binario, que se encuentran en la base de todo. Sin embargo, cómo opera nuestro cerebro a un nivel de código máquina es algo que desconocemos por completo, hasta el punto de que científicos del conocimiento y el lenguaje como Jerry Fodor o Steven Pinker postulan la existencia de una especie de código o lenguaje mental básico e innato al que llaman “mentalés” (mentalese), mientras que un matemático y astrofísico como Roger Penrose pretende encontrar la clave última del funcionamiento de nuestra mente nada menos que en la física cuántica.
Sea como sea, la cuestión que ahora me interesa es que, frente a la que podríamos llamar inextricabilidad, intangibilidad o inaprensibilidad del contenido de cada cerebro y de cada mente humana individual, las pretendidas mentes artificiales –aunque a veces se hable de ellas como de “cajas negras”- nos resultan mucho más transparentes, y ello por el simple hecho de que el código digital con el que en último término operan lo hemos creado nosotros. Y un rasgo absolutamente esencial de la codificación digital es que toda la información que se registra y procesa en este código es perfectamente copiable y reproducible en cualquier otro dispositivo de naturaleza análoga.
Y así, a diferencia de lo que –al menos de momento- sucede con el contenido informativo y las rutinas de procesamiento de un concreto cerebro humano individual, el contenido de la memoria de cualquier dispositivo informático (desde un teléfono móvil al más gigantesco superordenador) y cualquier programa informático, en la medida en que en último término no son más que secuencias de ceros y unos, se pueden copiar y reproducir con absoluta exactitud y fidelidad (y además celeridad) una infinidad de veces y en una infinidad de dispositivos.
La consecuencia elemental de esto es que la vinculación que podríamos calificar como intrínseca o necesaria entre una mente humana y un determinado cuerpo humano no existe en absoluto en el ámbito de las mentes artificiales. Y esto a su vez tiene muchas implicaciones desde un punto de vista jurídico.
En primer lugar, aunque algunos lo hayan intentado -como en los años 50 y 60 del pasado siglo el célebre psiquiatra al servicio de la CIA Donald Ewen Cameron con sus terapias psíquicas de choque-, un cerebro humano se puede destruir pero no “reprogramar”. Sin embargo, cualquier dispositivo electrónico se puede resetear de raíz. Si es así, la idea de una punición o castigo aplicada a un agente inteligente artificial que con su actuación ha causado daño no parece tener mucho sentido, y ello tanto desde el punto de vista de la expiación como de la prevención especial o de la reinserción. Todo castigo o sanción se fundamenta en último término en la continuidad psicológica del sujeto. Y esta continuidad es propia del ser humano, pero no tiene por qué serlo de los dispositivos dotados de inteligencia artificial. Si un robot o androide capaz de actuación autónoma se tuerce o malicia, lo procedente no sería castigarle o intentar que se enderece mediante la aplicación de sanciones, sino simplemente borrar toda la memoria de su disco duro y reprogramarlo, de manera que comience de nuevo desde cero su proceso de autoformación. Así, conservando su misma entidad corpórea, nuestro robot o androide podría ser dotado de una nueva mente, que no tuviera vinculación alguna con su mente anterior.
Además, la inteligencia artificial situada en un concreto dispositivo no sólo es susceptible de borrado y reprogramación, sino también de trasplante, replicación o incluso multiplicación. Como ya he indicado, cualquier información digitalizada –y a esta categoría pertenece cualquier contenido o estado de una mente cibernética- es susceptible de copiado y reproducción absolutamente íntegra y exacta. Y por ello, la mente existente en un momento dado en un concreto robot o androide se puede copiar y replicar ad infinitum, se puede incorporar a cualesquiera otros dispositivos.

La individuación por el hardware corpóreo


¿Supone todo esto –la posible discontinuidad radical o la posible clonación o replicación de las mentes artificiales- un problema para una pretendida personificación jurídica, que es algo que parece presuponer una suficiente individuación del agente dotado de IA?
Si pensamos que esa personificación no es algo que se fundamente en una pretendida “dignidad” individual del agente artificial, sino que –como ya indiqué - se trata de un mero instrumento jurídico para procurar la protección de los seres humanos asegurando que existe un patrimonio responsable por las actuaciones de este nuevo tipo de agentes autónomos, esta que podríamos calificar como fluidez o fungibilidad de las mentes artificiales no debería ser un problema. Porque lo que nos plateamos no es un problema de culpa y expiación, lo que presupone individualidad y continuidad psíquica, sino una mera cuestión de imputación instantánea, a los meros efectos de responsabilidad, de una acción acaecida en un lugar y momento determinados. Que la mente artificial que intervino en la causación del daño haya sido con posterioridad borrada del dispositivo en cuestión o que sea idéntica a las mentes de otros dispositivos es irrelevante a tales efectos. Lo que debería importar es que fue un determinado e identificable dispositivo físico guiado en ese momento por una mente artificial capaz de actuación autónoma el que ejecutó la acción que causó el daño, por ejemplo, que un determinado vehículo autónomo atropelló a un peatón.
Si es así, de forma no diferente de lo que sucede con los seres humanos y sus acciones, la identificación del agente artificial a efectos de responsabilidad vendría dada por su “cuerpo”, por el hardware físico mediante el que operó este agente. Si identificamos debidamente este cuerpo mediante un número de serie y llevamos un registro de estos números de serie a cada uno de los cuales está vinculado a su vez un contrato de seguro de responsabilidad civil o un determinado fondo patrimonial, entonces no habría mayor problema para hacer efectiva una responsabilidad, por mucho que –como he señalado- la vinculación entre una inteligencia o mente artificial y un cuerpo determinado no presente esos rasgos de necesidad, inherencia y singularidad que son propios de la inteligencia humana.
Por supuesto que el tema de la responsabilidad se puede complicar mucho más. Que un concreto robot, androide o dron identificable físicamente haya intervenido de alguna manera en el proceso de causación de un daño no quiere decir que ese dispositivo deba en todo caso ser jurídicamente responsable del daño de manera que su patrimonio afecto deba soportar su reparación. Puede haber intervenido dolo o negligencia por parte de la víctima, concurrencia de culpas, una relación de causalidad muy remota entre la actuación del agente artificial y el daño, incidencia de una fuerza mayor… Incluso -¿por qué no?- podríamos pensar en un fundamento subjetivista de esta responsabilidad del robot, como es la regla general en el caso de la responsabilidad humana, de manera que el patrimonio del robot no respondería si el resultado dañoso era razonablemente imprevisible para éste dadas las circunstancias. Como también podríamos plantear el problema de que ese patrimonio o fondo afecto a responsabilidad por las acciones de un concreto robot puede resultar insuficiente para dar satisfacción a todas las víctimas, de manera que habría que aplicar también a los robots criterios propios del derecho concursal.

¿Y la IA no situada?


Pero, más allá de todo esto, lo que quiero advertir es el problema que para este tipo de planteamientos jurídicos suscita la IA no situada.
Ya he indicado cómo, pese a la identificación popular entre IA y robótica, esta segunda sólo representa una parte del variado y extenso ámbito de la primera. La IA tiene ya hoy manifestaciones omnipresentes y de gran relevancia que no tienen nada que ver con los robots. Por referirme sólo al caso más a la mano, los asistentes personales virtuales, como Siri, Alexa o Cortana, que nos prestan servicio desde nuestros teléfonos móviles y otros dispositivos, son, por supuesto, aplicaciones de IA. ¿Y quién es Siri?, ¿dónde se ubica?, ¿hay tantas Siris como iPhones en uso?, ¿o hay una única Siri, que nos contesta a todos a través de diferentes dispositivos?
En relación con estos interrogantes adquiere relevancia el significado último de la digitalización. Las aplicaciones, los programas, las bases de datos, la computación son mera información o procesos de manipulación de la información, y como tales, fenómenos etéreos, ubicuos, no localizados. Están en muchos sitios a la vez y en ninguno en particular: “en la nube”, en el sentido más literal de la expresión.
En definitiva, hay una IA -de cada vez mayor relevancia- cuya actuación autónoma no se concreta en una manipulación física del mundo por medio de un cuerpo diferenciado, sino en la mera manipulación o gestión de la información. Un programa recibe unos determinados datos como inputs o insumos, aplica sobre éstos unos determinados algoritmos o rutinas de procesamiento, incluyendo la consulta y análisis de unas determinadas bases de datos, y arroja como resultado o output unos nuevos datos. En la medida en que este proceso se lleve a cabo por un “sistema” capaz de actuar con una cierta autonomía y sin un control humano directo, se puede hablar de una IA. Esta IA, que consiste en un mero sistema de tratamiento de información, se puede estar ejecutando físicamente en uno o varios servidores que no se sabe exactamente dónde están y que no tienen por qué ser de titularidad de la empresa o el sujeto que provee o hace uso de la aplicación. Y las consecuencias prácticas de la ejecución de un programa de este tipo pueden ser muy relevantes y en ocasiones hasta catastróficas, aunque no se concreten en una acción física ejecutada de forma directa por el propio sistema inteligente: desde un diagnóstico clínico hasta la emisión directa de una orden de inversión bursátil o la activación de un sistema automatizado de defensa antiaérea.
¿Cómo tratamos jurídicamente estas situaciones, cuando la IA autónoma no se concreta en un robot sino en eso tan evanescente como puede ser un programa o un sistema? Por razones puramente técnicas, aquí la personificación jurídica del agente inteligente como instrumento de una posible responsabilidad resulta mucho más difícil, por no decir, inviable. ¿Cómo individualizar a un agente, cuya actuación no es localizable en el espacio?
Y si miramos aún un poco más allá, el tipo de IA fuerte, la “singularidad” o superinteligencia artificial (una inteligencia con la flexibilidad y alcance general y autoconciencia que caracterizan a la inteligencia humana, pero con la potencia y velocidad de procesamiento que aporta la electrónica), de cuyo advenimiento nos hablan con alarma o entusiasmo profetas como Nick Bostrom o Max Tegmark no es del tipo antropomórfico o corporeizado, sino más bien un agente cognitivo fluido y proteico, capaz de escapar de su confinamiento en un servidor determinado y huir por la red para parasitar cualquier sistema que le permita desarrollar sus actividades de computación en busca de sus propios objetivos. En definitiva, esta IA sobrehumana completamente desubicada, capaz de servirse de la percepción de todos los sistemas sensores, de todas las bases de datos y de todos los recursos de computación disponibles en la red, se convertiría en una especie de super-yo, casi una deidad, que simplemente superaría y desbordaría todas nuestras concepciones jurídicas.
Bibliografía
Al lector que sienta curiosidad por los temas aquí apuntados le recomiendo estos libros:
- James Gleick, La información. Historia y realidad. Crítica, 2012 (versión original de 2011)
- Jack Copeland, Inteligencia Artificial. Una introducción filosófica. Alianza Universidad, 1996 (versión original de 1993).
- Roger Penrose, La nueva mente del emperador. Debolsillo Ensayo, 2019 (versión original de 1991).
- Antonio Damasio, Y el cerebro creó al hombre. Ediciones Destino, 2018 (versión original de 2010).
- Nick Bostrom, Superinteligencia. Caminos, peligros, estrategias. Teell editorial, 2016 (versión original de 2014).
- Max Tegmark, Vida 3.0. Qué significa ser humano en la era de la inteligencia artificial. Taurus, 2018 (versión original de 2018).

Otros artículos
  • Legal Tech
Sobre la personificación jurídica de la inteligencia artificial (I)
por Manuel González-Meneses
IA y code is law En el año 1989 Lawrence Lessig, un profesor de derecho constitucional de la Universidad de Stanford, publicó un libro muy influyente con el título “Código y otras leyes del ciberespacio”. Aunque no fue invención de su autor, a esta obra se
24 abril 2020
  • Legal Tech
Legal Tech: entre la transparencia y el hermetismo
por Manuel González-Meneses
La tecnología y el mundo del derecho Entre el mundo del derecho y la tecnología ha existido siempre una peculiar dialéctica o tensión. Cuando hablamos ahora de tecnología, pensamos en digitalización, ordenadores, Internet y teléfonos móviles, pero el asunto
17 enero 2020
  • Legal Tech
Garantizando la autoría del mensaje digital o cómo la preocupación por la privacidad llevó a la firma digital (Explorando la frontera digital IV)
por Manuel González-Meneses
En mi post anterior me ocupé de la cuestión de cómo garantizar la integridad del contenido de eso en apariencia tan evanescente como un archivo digital: cómo de la conservación controlada del soporte físico en que está registrado el archivo se pasa a ese
24 mayo 2019
Share
Llámanos
Admisiones: +34 662 98 80 37Información General: +34 91 514 53 30