Discurso de Félix Plaza, Director del Centro de Estudios Garrigues, en el Acto de Apertura del Curso Académico 2018/2019

Sr. Rector Magnífico de la Universidad Antonio de Nebrija, Don Juan Cayón,

Sr. Director General de la Agencia Estatal de Administración Tributaria, D. Jesús Gascón Catalán,

Sr. Senior Partner de Garrigues, D. Ricardo Gómez-Barreda,

Queridos profesores del claustro académico del Centro de Estudios Garrigues,

Queridos alumnos del curso académico 18/19,

Queridos amigos:

Inauguramos hoy de manera oficial el año académico 2018/2019.

En los primeros días de clase tuve ocasión de dirigirme a la mayoría de vosotros para daros la bienvenida al Centro de Estudios Garrigues y trasladaros una serie de principios y valores irrenunciables en los que se asienta nuestra institución como el trabajo en equipo, la solidaridad, el esfuerzo…, pero por encima de todo nuestras tres “Es”:

  • Ética.
  • Excelencia.
  • Exigencia

Probablemente la exigencia no sea más que una manifestación de la excelencia, ya que no se puede ser excelente sin exigirse el máximo, pero la excelencia tiene más pilares como el rigor (entendido como propiedad y precisión) y el conocimiento.

Y es aquí, en el conocimiento, donde empieza realmente la reflexión que quería haceros al inicio de este curso.

Durante mi tiempo universitario no existía internet. La investigación de cualquier asunto requería tiempo para desplazarse a la biblioteca, tiempo para localizar las obras o trabajos que pudieran tener que ver con el asunto a analizar o de revisar bases de datos e índices antes de encargar lo que se quería consultar. Hoy, lo que antes podía llevar horas, lleva minutos (poco más que un clic de ratón y unos minutos de procesamiento de la información a analizar). A partir de aquí, el camino es y ha ido siempre el mismo. El estudio detenido.

He oído que en Internet se habla de los «años de perro», porque un año de Internet es como siete años en el «mundo real».

Siempre he pensado que esta evolución tecnológica es buena. Lo sigo pensando. Pero como todo, puede tener efectos secundarios…

El otro día me remitieron por WhatsApp un artículo de Javier Paredes, Catedrático de Historia Contemporánea de la Universidad de Alcalá, publicado en el digital Hispanidad, en el que, analizando otro tema, dejaba caer lo siguiente:

Cuando la sociedad de la información suplanta a la sociedad del conocimiento, brota la ignorancia hasta en las mentes más despiertas. Y lo malo es que algunos piensan que es lo mismo una que otra. No, nada que ver la una con la otra. La sociedad de la información solo ve la tele y en el mejor de los casos, de vez en cuando, lee algo corto. La sociedad del conocimiento lee, estudia y ve poco o nada la tele. Por lo tanto, mejor acudamos a los que han estudiado el ser de España”.

Este artículo me llamó la atención sobre algo que me parece muy trascendente y es si hoy, que estamos viviendo el momento de la historia en el que tenemos acceso a una mayor cantidad de información, la sociedad, de manera transversal, está siendo capaz de transformar esa información en un mayor conocimiento o si, al contrario, el acceso rápido a la información está generando el efecto de que no profundicemos en las cosas, de que realmente sepamos un poco de mucho y no conozcamos mucho de prácticamente nada.

José María Sanz-Magallón, Subdirector General de Comunicación Interna y Gestión del Conocimiento de Telefónica S.A., en un artículo publicado en Nueva Revista constataba que “Una edición diaria del New York Times contiene más información de la que tendría un ciudadano promedio del siglo XVII durante toda su vida. En los últimos cinco años se ha generado más información que en los 5.000 anteriores, y esta información se duplica cada cinco años”.

Pero, ¿somos capaces de convertir toda esa información en conocimiento? ¿O el exceso de información puede redundar negativamente en la generalidad de la sociedad a la hora de profundizar en el conocimiento? Y, todo ello sin plantearnos aquí algo tan trascendente como lo anterior como es ¿quién vela por la veracidad y el rigor de la información?

Como apunta Sanz-Magallón en el artículo ya mencionado “Es evidente que gracias al desarrollo de las modernas tecnologías de almacenamiento, procesamiento y transmisión de información, el ser humano puede hacer frente y manejar las ingentes cantidades de datos que se producen. Sin embargo, como señala Julio Linares, «cuanto mayor es la información generada por una sociedad, mayor es la necesidad de convertirla en conocimiento»”.

Los profesores Zoia Bozul y José Castro Herrera en su trabajo “El profesorado universitario en la sociedad del conocimiento: competencias profesionales docentes” señalan que:

la sociedad del conocimiento no es algo que exista actualmente, es un estado final de una etapa evolutiva hacia la que se dirige la sociedad, etapa posterior a la actual era de la información, y hacia la que se llegará por medio de las oportunidades que representan la tecnología de la información y comunicación (TIC) de las sociedades actuales.

Con base en lo anteriormente expuesto se percibe la necesidad de formar personas que puedan ser capaces de seleccionar, actualizar y utilizar el conocimiento en un contexto específico, que sean capaces de aprender en diferentes contextos y modalidades y a lo largo de toda la vida y que puedan entender el potencial de lo que van aprendiendo para que puedan adaptar el conocimiento a situaciones nuevas”.

Sin embargo, no en pocas ocasiones se han confundido o identificado, los conceptos sociedad de la información y sociedad del conocimiento. Creo, sin embargo que hoy es preciso más que nunca distinguir claramente entre información y conocimiento, y ello aun cuando la información sea consustancial al conocimiento.

En el artículo ya mencionado, José María Sanz-Magallón define la sociedad del conocimiento como “aquélla en que los ciudadanos disponen de un acceso prácticamente ilimitado e inmediato a la información, y en la que ésta, su procesamiento y transmisión actúan como factores decisivos en toda la actividad de los individuos, desde sus relaciones económicas hasta el ocio y la vida pública.”

El profesor de la Universidad de Barcelona Kasten Krüger en su trabajo EL CONCEPTO DE ‘SOCIEDAD DEL CONOCIMIENTO apunta que “El concepto actual de la “sociedad del conocimiento‟ no está centrado en el progreso tecnológico, sino que lo considera como un factor del cambio social entre otros, como, por ejemplo, la expansión de la educación. Según este enfoque, el conocimiento será cada vez más la base de los procesos sociales en diversos ámbitos funcionales de las sociedades. Crece la importancia del conocimiento como recurso económico, lo que conlleva la necesidad de aprender a lo largo de toda la vida. Pero igualmente crece la conciencia del no-saber y la conciencia de los riesgos de la sociedad moderna”.

En esta misma línea, José Luis Mateo, ex vicepresidente del CSIC, en su trabajo SOCIEDAD DEL CONOCIMIENTO señala que: “El conocimiento, pues, siempre ha jugado un papel destacado, si bien el ritmo de la generación del mismo, es lo que, sin duda, marca diferencias importantísimas de unas épocas a otras.

Con cierta frecuencia se denomina a nuestra sociedad actual como la sociedad del aprendizaje y, sin duda, dicha denominación responde a la realidad, si bien es conveniente matizar o añadir que ello es consecuencia, en buena parte, de la rápida producción y generación de conocimientos que obliga a un aprendizaje continuo para no quedar obsoleto en la materia en cuestión. La sociedad del aprendizaje es, pues, una consecuencia de la sociedad del conocimiento. Dicho de otro modo, los profesionales de la última o últimas generaciones y de las venideras no dejarán de ser estudiantes nunca.

Pues bien, a la luz de todo lo anterior, creo que es necesario entender que la sociedad de la información no debe confundirse con la sociedad del conocimiento, aunque nos llevará (no está llevando) inexorablemente a ella.

Pero del mismo modo, se hace preciso, ahora más que nunca, no ser superficial, ligero, no estar “informadamente desinformados”. Nuestro futuro, el futuro de la sociedad, como siempre ha ocurrido, depende del conocimiento y este de nuestra capacidad de convertir la información en saber.

La evolución tecnológica ha puesto a nuestra disposición las herramientas (un acceso ilimitado a la información), ahora depende de nosotros utilizar esas herramientas para producir frutos, nos toca transformar la información en conocimiento.

En palabras de Kofi Annan : “Saber es poder. Informar es liberar. La educación es una condición del progreso en todas las sociedades, en todas las familias”.

En el Centro de Estudios Garrigues queremos que seáis absolutamente diferenciales, que entendáis que estáis llamados a llevar las riendas de la transformación de la sociedad y que en esa transformación la herramienta más importante y la que os va a distinguir de todos los demás es el conocimiento.

Dejad que os ayudemos en ese proceso, que os ayudemos a construir una sociedad mejor, un futuro mejor, dejad que os demos la herramienta que os ayudará a trasformar el mundo, el conocimiento.

Hoy sí que quedáis informados de vuestra responsabilidad.

Muchas gracias

De Grouchy al smartphone (Explorando la frontera digital I)

En la jornada del 18 de junio del año 1815 en una pradera ondulada próxima a la localidad belga de Waterloo las tropas napoleónicas sufrieron su derrota definitiva. Como se suele decir, en ese día estaba en juego el destino de Europa y del mundo. Si la victoria hubiera caído del lado francés, la enésima alianza de las potencias enemigas primero de la Revolución y luego de Bonaparte se habría descompuesto, el Congreso de Viena no habría reanudado sus sesiones ni repartido Europa como lo hizo, los famosos cien días habrían sido bastantes más y el legitimismo monárquico no habría conseguido una prórroga de vigencia que en algunos estados llegó a durar casi un siglo. Y aunque la historia la escriben los vencedores –que en esa ocasión, como casi siempre, lo fueron los ingleses-, y a toro pasado es fácil ver todo lo sucedido como inevitable, lo cierto es que a media tarde el resultado estaba completamente en el aire. Se ha hablado mucho de que la lluvia de los días precedentes había ablandado el terreno, evitando el letal rebote de los proyectiles de la superior artillería francesa, de las astucias de Lord Wellington ocultando sus cuadros de infantería, de la tenaz resistencia de los británicos a las sucesivas acometidas de la caballería pesada enemiga, o de la providencial llegada al campo de batalla in extremis de los prusianos de Blücher, pero lo realmente determinante del resultado final fue un garrafal defecto de comunicación entre el grueso del ejército francés y el ala que bajo el mando del mariscal Grouchy se había separado dos días antes para perseguir a los prusianos derrotados en Ligny.

El caso es que aproximadamente un tercio del ejército francés se pasó todo el día 18 perdido a apenas unos kilómetros de distancia de donde se estaba desarrollando la gran batalla. Simplemente porque su obtuso comandante se limitó a seguir fielmente unas instrucciones desactualizadas en vez de acudir a donde se le necesitaba –al ruido de los cañones- y donde su irrupción habría desequilibrado claramente la balanza.

En nuestros días, semejante episodio nos resulta inconcebible. Hasta el más humilde fantassin francés llevaría encima un teléfono móvil, con su aplicación googlemaps, y Napoleón habría whatsappeado sus nuevas órdenes a Grouchy para que éste apareciese en el campo de batalla en el momento oportuno.

Pero, en realidad, lo verdaderamente inconcebible es esto nuestro, todo esto que ahora nos permiten hacer las nuevas tecnologías de la comunicación e información y a lo que parece que estamos ya tan acostumbrados que ni nos sorprende. El problema del mariscal Grouchy es el mismo que han tenido todos los comandantes militares desde la Guerra de Troya o las batallas bíblicas hasta la Primera Guerra Mundial. Sólo muy entrado ya el siglo XX, con la invención de la radio, y en la minúscula fracción de la historia de la humanidad que ha discurrido desde entonces, la forma de comunicarnos los seres humanos ha cambiado radicalmente. Y también sólo desde la última década del pasado siglo –no hace todavía ni treinta años- se ha generalizado el uso de la informática por el conjunto de la sociedad. Aún menos tiempo hace del boom de Internet y la telefonía sin hilos, y menos todavía de la combinación de ambos instrumentos, algo que hoy nuestros hijos dan por supuesto, pero que era simplemente inimaginable, que ni el más visionario escritor de ciencia ficción había llegado siquiera a barruntar. Y ahora mismo no paran de hablarnos de big data, de robótica, de inteligencia artificial, de algoritmos, de criptomonedas y de blockchain.

Demasiados cambios en tan poquísimo tiempo, en menos de una generación. Unos cambios que, como no puede ser de otra forma, afectan de lleno al mundo del derecho, en la medida en que el derecho es básicamente información, un tipo determinado de información. No sólo las normas o las resoluciones judiciales y administrativas son información, sino que también lo son la contabilidad de las empresas, los contratos y acuerdos negociales y todos los derechos. Eso que los juristas llamamos un derecho subjetivo no es más que una idea, una cosa pensada, que para ser efectiva –para reflejarse de alguna manera en el mundo de la realidad física- debe salir de mi mente para ser compartida y reconocida por una pluralidad de personas. Reconocimiento éste que suele requerir alguna forma de documentación y de registro. Y si es así, todo aquello que afecta a la forma de generar, tratar y registrar la información no es un mero accidente para el mundo o la realidad jurídica, sino algo que afecta de lleno a su mismo núcleo o sustancia.

Y sin embargo, todavía hoy la mayor parte de los juristas en ejercicio en nuestro país e incluso de los recientes egresados de nuestras facultades de Derecho hemos sido formados al margen completamente de la aludida revolución en las tecnologías de la comunicación e información, como si fuera algo ajeno a nuestro ámbito de competencia.

Y las cosas no pueden seguir así. La relación entre el derecho y las nuevas tecnologías no puede continuar siendo el reducto de unos pocos iniciados y especialistas. Se trata de una cuestión transversal, que afecta a todas las ramas del derecho y a casi todos los ámbitos de la actividad profesional del jurista. Y en particular, hace tiempo que incide no sólo en la periferia, sino en el mismo núcleo de la cultura jurídica, en esas nociones básicas que presupone todo discurso jurídico, como pueden ser la identidad, la imputación de las acciones y declaraciones, el consentimiento negocial y hasta el propio concepto de persona. Sin que podamos dejar de lado la incidencia de este asunto en el ámbito jurídico-público, donde las mismas nociones más elementales de soberanía o de jurisdicción sobre una población y un territorio resultan desbordadas por fenómenos que se desarrollan en un espacio etéreo que escapa a toda territorialidad.

Precisamente por ello, la gran dificultad y el gran reto que nos plantea esta materia no es tanto –aunque también- el conocimiento y la comprensión de una tecnología muy sofisticada y que se nos presenta envuelta en una jerga anglosajona bastante opaca, como la necesidad de revisar y replantearnos algunas de las nociones más básicas de nuestra formación como juristas. Lo que a su vez requiere un esfuerzo de abstracción, de autoanálisis y casi de recuperación de la inocencia intelectual (por ejemplo, ¿qué significan realmente actos que hacemos de forma tan habitual que casi no reparamos en ellos como firmar un documento?).

¿Y a qué viene ahora todo esto? Pues a que, buscando un tema en el ámbito de mis últimas preocupaciones que pudiera resultar atractivo para un post en este blog, me estaba planteando un contraste entre el concepto de token (o mejor, de crypto-token) y el de documento electrónico, en la medida en que se está relacionando al primero con la tradicional teoría de los títulos valores y muchos tienden a identificar los dos conceptos aludidos. Sin embargo, a mi juicio, una aproximación jurídica adecuada al fenómeno de la “tokenización” requiere una clara distinción de esas dos nociones. Pero esta distinción a su vez presupone que tenemos claro el concepto de documento electrónico, que es cualquier cosa menos evidente, por cuanto presenta una diferencia muy notable respecto de nuestro concepto tradicional de documento de papel (por cuanto la entidad de éste está indusolublemente unidad a su soporte material, lo que no sucede con aquél, que tiene una entidad puramente lógica e independiente de cualquier soporte). Esto nos lleva necesariamente a hablar de la función de hashing como herramienta de identificación lógica unívoca de un determinado archivo digital. Y a su vez, comprender este tipo de identificación presupone el entendimiento del propio concepto previo y más general de digitalización.

En definitiva, cuando se pretende profundizar un poco en cualquiera de las acuciantes cuestiones que para los juristas suscita la sociedad digital que inexorablemente se va imponiendo, nos encontramos con que muchos de los conceptos o nociones más básicos están todavía por construir y que la propia terminología que empleamos es cualquier cosa menos clara. Y sobre todo, que tenemos mucha tarea de reflexión pendiente.

Estando así las cosas, me ha parecido mejor aparcar de momento el tema de los tokens, para dedicar algunos post a compartir mis esfuerzos de esclarecimiento de algunos conceptos más generales que se mueven en esa problemática frontera o tierra de nadie entre lo tecnológico y lo jurídico y que me parece necesario conocer antes de introducirse en cuestiones más complejas (así, la distinción entre lo digital y lo electrónico, el concepto de dato, de archivo informático, de documento electrónico, la criptografía asimétrica como instrumento de imputación, el hash, los algoritmos…, y ya veremos si terminamos enredados en las leyes de la robótica de Asimov).

A este pequeño proyecto lo llamaré “Explorando la frontera digital” y espero que les resulte de algún interés.

Pronto recibirán nuevas señales.

Las nuevas tecnologías y los derechos laborales

La ya generalizada utilización de las nuevas tecnologías de la información y de la comunicación en el mundo laboral ha hecho surgir nuevos problemas en el ámbito de las relaciones laborales, sobre todo derivados del juego que los derechos fundamentales de los trabajadores (derecho a la intimidad, al secreto de las comunicaciones) hayan de tener en los procedimientos empresariales establecidos para la vigilancia y control del uso de los medios informáticos puestos a disposición del trabajador (ordenadores, teléfonos celulares, tabletas), así como en supuestos de utilización de medios de vídeovigilancia aunque no estén relacionados directamente con la actividad laboral (medios que, establecidos para garantizar la seguridad de las instalaciones o para evitar hurtos de los productos comercializados por la misma, pueden sin embargo captar casualmente incumplimientos laborales  de los trabajadores).

Esta nueva realidad pone en cuestión, con mucha más intensidad que antes, la vigencia de los derechos fundamentales de los trabajadores en el seno de las empresas y en el desarrollo de sus actividades productivas. Derechos que les corresponden como ciudadanos (derecho a la intimidad, al secreto de las comunicaciones, al respeto de su dignidad) y no específicamente como trabajadores (como es el caso, sobre todo, de la libertad sindical y de sus diversas manifestaciones). Y hace reverdecer el debate, ya antiguo, sobre la vigencia de los derechos fundamentales en el seno de las organizaciones productivas. En la década de los setenta del pasado siglo, en el apogeo de ese debate, se acuñó una máxima que hizo fortuna, conforme a la cual la Constitución no puede pararse a la puerta de las fábricas, sino que debe garantizarse que los trabajadores conservan íntegros sus derechos fundamentales de ciudadanía aunque se integren en una organización empresarial que, lógicamente, tiene también sus exigencias de disciplina y de control.

La mayor parte de los ordenamientos ha dado hasta ahora una respuesta insuficiente, o no ha dado, como en el caso español, respuesta en absoluto a estos nuevos problemas. El uso de las redes corporativas de la empresa para comunicaciones sindicales, por ejemplo, o la utilización para fines particulares de los medios tecnológicos facilitados por la empresa (correo electrónico, internet, teléfono) y sus límites, no encuentran respuesta en nuestros textos legales. Piénsese que la norma básica ordenadora de las relaciones laborales en España, el Estatuto de los Trabajadores, sigue regulando como medio principal de comunicación sindical en la empresa, junto a las asambleas de trabajadores, ¡el tablón de anuncios! Tampoco la negociación colectiva, aunque más atenta a estas cuestiones y con ejemplos de regulación detallada de las mismas (sobre todo en convenios de grandes empresas), ha dado respuesta suficiente a la nueva problemática. Ha sido sobre todo la doctrina judicial la que, si bien de forma casuística, ha ido sentando una doctrina acerca de la compatibilización de los derechos de los trabajadores con las exigencias empresariales de ordenación de las actividades productivas y de control y vigilancia tanto del uso de los medios empresariales puestos a disposición de los trabajadores, como del cumplimiento de las instrucciones de la empresa.

¿Cuáles son los puntos fundamentales de esa doctrina (bien sintetizada en la reciente Sentencia del Tribunal Supremo de 8 de febrero de 2018, que recoge también las construcciones al respecto del Tribunal Constitucional y comprueba su armonía, en este punto, con la jurisprudencia del TEDH, en particular en su reciente sentencia Barbulescu, de 5 de septiembre de 2017)? Ante todo, como principio general, hay que tener en cuenta que la utilización del ordenador en la empresa, aunque esté personalizada (incluso aunque se entregue un ordenador portátil a cada trabajador) queda dentro del ámbito del poder de vigilancia del empresario, que puede ejercer, en relación con el uso del ordenador, sus facultades de vigilancia y control de la actividad laboral. Las facultades empresariales, legalmente reconocidas y con fundamento constitucional en el artículo 38 CE, pueden pues ejercerse en estos ámbitos, si bien con respeto de la dignidad de los trabajadores. Ello implica el derecho empresarial a fijar las condiciones de uso de los medios informáticos facilitados por la empresa y a vigilar que esas condiciones se respetan por los trabajadores.

Los problemas más delicados surgen cuando se permite el uso para fines particulares de tales medios. O cuando simplemente se tolera un uso “razonable” de los mismos con fines particulares. En estos casos, las medidas de vigilancia y de control, que siempre han de ser razonables, han de tener especial cuidado de salvaguardar la esfera personal del trabajador y la intimidad de sus comunicaciones. Habrá que tener muy en cuenta las circunstancias concretas de cada caso y atender a las “expectativas razonables” que el trabajador pueda tener, en función de esas circunstancias, de encontrarse “al resguardo de la observación o del escrutinio ajeno”. Y habrá que distinguir si se trata de un control rutinario o general o si, por el contrario, viene determinado por indicios o sospechas concretas de actuación  desleal o contraria a la disciplina laboral o a los intereses empresariales del trabajador.

Por regla general, los controles empresariales han de superar un triple juicio de idoneidad, de necesidad y de proporcionalidad. La medida de control ha der idónea para la consecución de los fines legítimos perseguidos, ha de ser necesaria, en el sentido de que no exista otra menos intrusiva en la esfera del trabajador y proporcional a las circunstancias que la motivan. Los problemas se simplifican bastante cuando existe un protocolo empresarial (negociado con la representación laboral o establecido unilateralmente por la empresa), regulador del uso de los medios informáticos y de los instrumentos susceptibles de emplearse para controlar dicho uso. Aun así, se pone en cuestión, en estos casos, si, en atención a la realidad social imperante, una medida empresarial de prohibición absoluta de utilización con fines particulares puede considerarse proporcionada con independencia de las circunstancias que la motivan.

Las medidas empresariales de vigilancia y control que no respeten los principios indicados, pueden provocar que las pruebas de los incumplimientos laborales verificados a través de ellas, se consideren pruebas ilícitamente obtenidas y se consideren por tanto nulas. La doctrina judicial recurre con frecuencia a esta doctrina de los “frutos del árbol empozoñado” para anular las pruebas obtenidas con violación de derechos fundamentales. Ahora bien, el TS, en la sentencia que hemos citado, si bien mantiene la nulidad de las pruebas ilícitamente obtenidas avala la figura del “hallazgo casual”, que legitima posteriores medidas de comprobación. Ese hallazgo casual invalida la aplicación de la doctrina de los frutos del árbol envenenado, máxime cuando las actividades posteriores de comprobación son selectivas y proporcionadas. Ahora bien, el hallazgo casual tropieza con más dificultades cuando el incumplimiento laboral se detecta a través de cámaras de videovigilancia cuyo uso a efectos de control laboral no estaba fijado o no se había comunicado a los trabajadores.  Estos son supuestos delicados; si bien puede sostenerse que los trabajadores tienen derecho a conocer la instalación de cámaras de grabación y su posible uso a efectos de control de las actividades laborales, existen casos (cámaras de seguridad con fines no laborales, que captan un hurto de mercancías o de efectivo por parte de trabajadores) en los que un hipergarantismo puede llegar a configurar una especie de “derecho a la intimidad para delinquir” que no parece que deba tener amparo constitucional.

Sobre el origen intelectual de blockchain (III). Más precursores próximos

Terminé el post anterior ocupándome de la figura de David Chaum y de cómo su proyecto DigiCash no suponía una verdadera ruptura con el dinero de curso legal tradicional. El salto disruptivo al respecto, aunque fuera en un plano todavía meramente teórico o especulativo, es atribuible a los siguientes dos personajes de esta historia.

El primero de ellos colaboró precisamente con David Chaum en la malograda empresa DigiCash. Se trata de un estadounidense con apellido de origen húngaro: Nick Szabo. Personaje polifacético: graduado en 1989 en ciencias de computación por la Universidad de Washington, criptógrafo y jurista. Además de trabajar en DigiCash, fue el diseñador de Bit Gold, un proyecto de divisa digital antecesora de Bitcoin y blockchain. De hecho, muchos han afirmado que la identidad real tras el seudónimo “Satoshi Nakamoto” –el creador de Bitcoin- es Szabo, algo que él siempre ha negado. Así, el escritor y periodista financiero británico Dominic Frisby afirma: “I’ve concluded there is only one person in the whole world that has the sheer breadth but also the specificity of knowledge and it is this chap…”. Incluso una subunidad de la criptomoneda Ether (la moneda de la plataforma Ethereum) ha sido bautizada con su nombre (el “szabo”).

La primera gran aportación de Szabo a nuestro tema fue un artículo publicado en una revista futurista y transhumanista californiana denominada Extropy en el año 1996 con el título “Smart contracts: building blocks for digital free markets”. En este visionario artículo Szabo, como informático, criptógrafo y a la vez jurista, se plantea cómo la combinación de Internet con los modernos protocolos criptográficos (criptografía asimétrica o de doble clave, sistemas de firma ciega como los ideados por Chaum, o de firma múltiple, protocolos de mixing) podría revolucionar el derecho tradicional de contratos, permitiendo que esa pieza jurídica básica que es el contrato y que es la base de toda nuestra economía de mercado pudiera estar a la altura de las exigencias del comercio on line. En este artículo se crea el concepto y la terminología –ahora mismo en boca de todos- “smart contract” o contrato inteligente: un programa informático mediante el cual se ejecutan de forma automática unas prestaciones que no sólo son convenidas sino además programadas, lo que da lugar a un contrato que se autoejecuta con la ayuda de la tecnología informática. Algo ideal precisamente para una contratación no sólo entre ausentes sino entre desconocidos, que no tienen ningún motivo para confiar entre sí. También encontramos por primera vez el término “smart property” o propiedad inteligente, que es el resultado de integrar un contrato inteligente en un objeto físico (un automóvil, la cerradura de una vivienda), de manera que la disposibilidad física de ese objeto también sea programable según los términos de un determinado acuerdo.

Este primer artículo sobre los smart contracts fue revisado y ampliado en una publicación del año 1997 con el título “Formalizing and securing relationships on public networks”. En este texto encontramos ya una alusión a la idea de una confianza distribuida, es decir, a cómo la intervención de varios agentes en el control y registro de una transacción es una garantía de seguridad y de protección contra el fraude.

Esta idea se desarrolla y empieza a ganar entidad en publicaciones posteriores como “Secure Property Titles with Owner Authority” del año 1998, un artículo en el que, ante los problemas de inseguridad y de discrecionalidad política que -sobre todo en países poco desarrollados- suscitan los sistemas de registro de propiedad centralizados, propone una base de datos de títulos de propiedad distribuida o replicada a través de una red pública (un sistema de registro que –nos dice- sería capaz de sobrevivir a una guerra nuclear). Se trata de la creación de una especie de club de propietarios por medio de Internet, que se conciertan para llevar el rastro de la propiedad de algún tipo de activo. El título de propiedad de cada uno sobre un objeto estaría autenticado con la firma electrónica del titular anterior y así sucesivamente formando una cadena. Y el registro de la cadena de títulos de la que resulta quién es el propietario actual de cada objeto se basa en un consenso de la mayoría de los participantes, dado que es improbable que todos se pongan de acuerdo para cometer un fraude. Como veremos, aquí está ya in nuce el sistema de registro de titularidad de Bitcoin.

Otro importante artículo en que estas ideas se desarrollan es “Advances in distributed security” del año 2003, donde Szabo nos propone desechar la pretensión de una seguridad absoluta imposible de alcanzar, para conformarnos con sistemas con una alta probabilidad de seguridad como la que proporciona la criptografía. En este contexto, plantea cuestiones como un time stamping o sellado de tiempo distribuido, el empleo de los hashes como forma de identificar los mensajes o archivos objeto del sellado de tiempo, la creación de redes de replicación “bizantino-resilientes”, etc.

Además de la preocupación por sistemas alternativos para asegurar el cumplimiento de contratos y el tracto de las propiedades haciendo uso de Internet, la programación informática y la criptografía, Szabo puso también su atención en el tema específico del dinero, yendo mucho más allá del planteamiento de David Chaum. Lo que preocupaba a éste, como vimos, era el tema de la privacidad: cómo la intermediación de las entidades financieras en nuestros pagos electrónicos proporciona a éstas el conocimiento de datos esenciales de nuestras vidas. Szabo se enfrenta a otra cuestión: el sometimiento del valor del dinero que usamos a la discrecionalidad de las autoridades políticas, es decir, el problema de la inflación discrecional. Aquí es donde incide su propuesta Bit Gold del año 1998, que es coetánea de una idea muy similar: b-money de Wei Dai.

Este Wei Dai es un criptógrafo graduado también en ciencias de la computación por la Universidad de Washington, que en el año 1998 publicó un texto muy breve con el título “B-money: an anonymous, distributed electronic cash system” en la Cypherpunks mailing-list y que sería citado como referencia en el whitepaper de Satoshi Nakamoto (no así obra alguna de Szabo). La motivación de este Dai, como buen criptoanarquista, era básicamente la opacidad de las transacciones dinerarias y la terminología resulta quizá excesivamente elocuente al respecto: “dinero b”. Como curiosidad, indicaré que la fracción mínima de la criptomoneda Ether se denomina “wei”, como homenaje a este precursor.

Lo que se plantean estas propuestas (que enlazan con las visiones más radicales del criptoanarquismo de Tim May al que Dai cita explícitamente en el comienzo de su artículo) no es representar en un nuevo formato electrónico el dinero de curso legal ya existente para facilitar o conseguir el anonimato de los pagos electrónicos, sino de reemplazar ese dinero de origen estatal por un nuevo dinero creado por los propios usuarios asistidos por la red y la criptografía. Esta pretensión –como vemos, de significado político mucho más radical, pues viene a cuestionar uno de los atributos claves de la soberanía estatal, la acuñación de moneda- plantea un problema que va más allá de lo que es un simple problema de registro contable para controlar la circulación del dinero, es decir, para evitar la doble disposición de un activo digital: la cuestión de cómo se controla la creación de este dinero, para evitar la discrecionalidad y para asegurar su escasez y que de alguna manera sea reflejo de una actividad o valor económico.

Wei Dai propuso una especie de subasta on line periódica entre los participantes en el sistema para fijar el monto de nuevas monedas digitales puestas en circulación.

El planteamiento de Szabo era diferente. Éste llevaba tiempo dándole vueltas a la idea de cómo conseguir que una simple cadena o string de bits (una determinada sucesión de ceros y unos) fuera algo en sí mismo valioso. Estaba buscando un objeto digital que pudiera funcionar como el oro. El instrumento que concibió para ello –que es, a su vez, una aplicación del algoritmo hashcash creado por Adam Back para prevenir el spam de correo electrónico, citado también por Nakamoto- fue una prueba de trabajo computacional (lo que se conoce como una proof-of-work) a cuya solución se le pudiera atribuir un significado económico similar al oro, por el esfuerzo y aplicación de recursos que requiere su extracción, en este caso, el empleo de ciclos de computación. Así, este dinero electrónico ideado por Szabo se gestiona mediante un programa en la red que propone a los participantes en el sistema un determinado reto o problema matemático. Este problema o puzzle matemático está relacionado con la función criptográfica conocida como hashing y sólo se puede resolver aplicando “fuerza bruta computacional”, es decir, probando con distintas cifras hasta obtener un resultado que cuadre. El resultado así obtenido, que tiene la forma de una determinada serie o string de bits, se convierte en la primera unidad monetaria del sistema, con la que el programa premia al participante que ha sido el primero en encontrarla, y que éste puede emplear para hacer pagos a otros usuarios y así esta unidad monetaria o sus fracciones empiezan a circular. Y, a su vez, esta primera string de bits que se obtiene como resolución del problema constituye el punto de partida del siguiente reto que el programa plantea a continuación. De esta manera, de forma periódica y programada, se van introduciendo nuevas unidades monetarias en el sistema.

Quizá este planteamiento fuera un tanto primitivo –deudor de una concepción metalista y por tanto materialista del dinero, como cosa que debe estar dotada de valor intrínseco y no como un simple símbolo de valor-, y también desacertado, porque el valor intrínseco que atribuimos al oro no deriva sólo de su escasez y dificultad de obtención, sino de sus cualidades intrínsecas como sustancia, lo que nunca se podrá decir de una ristra de ceros y unos por compleja que sea su obtención.

Esta idea de Bit Gold, como el b-money de Dai, nunca se llegarían a poner en práctica, pero constituyen los antecedentes más directos de Bitcoin.

Sobre el origen intelectual de blockchain (II). Los precursores próximos

En la primera parte de este post por entregas sobre los antecedentes intelectuales de blockchain recordé dos personajes a los que califiqué como precursores remotos: Alan Turing y John von Neumann. En esta segunda parte me ocuparé de dos precursores más próximos: Tim May y David Chaum (y dejaré para una tercera a Nick Szabo y Wei Dai).

De los ominosos años de la segunda guerra mundial y la guerra fría nos trasladamos ahora a la década de los ochenta y noventa: un contexto político, socio-económico y tecnológico muy diferente. Tras la caída del muro y la descomposición del bloque del Este, de lo que se habla es de “fin de la historia” (en el sentido de abandono de las utopías marxistas) y de globalización; y en el ámbito tecnológico, de microprocesadores cada vez más potentes, de Internet, y de telefonía móvil.

Como recordarán, en los primeros años de la irrupción de Internet en nuestra sociedad se concibió por muchos la expectativa de grandes cambios culturales, sociales y políticos. La realización de los grandes sueños de la Ilustración parecía más cerca que nunca: un mundo compartimentado en agresivos Estados nacionales y controlado por las grandes multinacionales podía dar paso, gracias a esta nueva tecnología, a una verdadera comunidad humana universal, unida por la comunicación, la circulación de la información sin intermediarios y el fácil acceso al conocimiento. Por supuesto, esta comunidad en el ciberespacio tendría su faceta económica: un comercio universal, que vendría a difundir la prosperidad por todo el planeta.

Sin embargo, aunque el cambio en los hábitos sociales que ha traído consigo Internet y la telefonía sin hilos ha sido muy intenso, pronto se constató que la difusión de las nuevas tecnologías no llevaba consigo los cambios políticos que algunos esperaban. Los Estados nacionales no han desaparecido, sino que, precisamente, han encontrado en la tecnología digital una nueva arma de control de la ciudadanía con la excusa de un radicalismo y terrorismo globalizado que también ha sabido aprovecharse de la tecnología para sus propios fines, completamente ajenos a esa difusión de la ilustración que se suponía iba a traer consigo Internet. También en lo económico se ha podido constatar que globalización no es sinónimo de prosperidad general. Unas multinacionales han sucedido a otras, pero la concentración del poder económico no ha disminuido, sino que más bien se ha incrementado. En nuestros días, unas pocas empresas nacidas de las nuevas tecnologías como Apple, Microsoft, Google, Facebook o Amazon gozan de una penetración social y de una capacidad de influencia y de control como nunca habían existido antes.

Esto, que empezaba a gestarse ya en los años noventa, ha dado lugar a que ese pensamiento un tanto visionario y utópico propio de los primeros tiempos de Internet haya pasado –por así decirlo- a la resistencia, transformado en un activismo y una ideología contestataria y antisistema, pero desde dentro y con herramientas propias del universo digital. Aparecen así los hackers –rodeados, como todos los piratas y rebeldes, de una aureola de romanticismo-, los cyberpunks y, por lo que ahora nos interesa, los cypherpunks o criptoanarquistas, una corriente ideológica que reinvindica el acceso de los particulares a la criptografía, a las técnicas de cifrado o encriptación de la información, frente a las pretensiones de monopolizar el uso de esta tecnología por las agencias de seguridad nacionales.

La criptografía a que me estoy refiriendo es la criptografía de base matemática, que es la criptografía moderna, propia del mundo de la tecnología informática, de la aplicación de la electrónica a la computación, es decir, algo que empieza a desarrollarse sólo a partir de la mitad del siglo pasado. Anteriormente, las técnicas de cifrado eran mucho más rudimentarias: desde los códigos elementales consistentes en un simple algoritmo de sustitución de letras que empleaba Julio César en sus comunicaciones en campaña, hasta la encriptación electromecánica de los mensajes de telegrafía o de radio mediante la máquina Enigma de la inteligencia militar alemana durante la Segunda Guerra Mundial, que se basaba en el juego con las posiciones variables de los rotores de una máquina fabricada en serie que convertían unos caracteres alfabéticos en otros. La colocación de los rotores de la máquina de la que dispone el destinatario del mensaje en la misma posición en que se colocaron los rotores en la máquina del emisor es lo que permite el descifrado. Por tanto, se trataba de un sistema de cifrado de clave única o simétrica de naturaleza mecánica, que se iba cambiando cada cierto tiempo y que planteaba el problema de que dependía de la existencia de una información previa compartida por emisor y receptor acerca de la clave que se emplea en cada momento –es decir, la concreta disposición de los rotores que se está empleando en un momento dado-, información que podía ser interceptada por el enemigo y aprovechable por éste si disponía de un ejemplar del mismo modelo de máquina. La criptografía matemática se basa, por el contrario, en operaciones aritméticas o de cómputo o cálculo matemático que se aplican sobre mensajes digitalizados o numerizados, es decir, que se han convertido previamente en números. Gracias a los ordenadores –máquinas que operan a velocidad electrónica, es decir, a una velocidad próxima a la de la luz- es posible el uso práctico de estas técnicas de encriptación y desencriptación cuyo empleo requiere la realización veloz de estas muy complejas operaciones de cómputo numérico (que suelen tener por objeto grandes números primos, cuyo producto es muy difícil de factorizar).

En un primer momento, los gobiernos, en particular el estadounidense a través de la NSA (National Security Agency), trataron de reservarse el conocimiento y uso de esta tecnología que tan vital había resultado durante la guerra, evitando su difusión para el uso comercial y por el público en general. Sin embargo, a mediados de los años setenta, tras una complicada pugna con la NSA, la compañía IBM registró en la oficina nacional de estándares estadounidense un algoritmo estándar de cifrado conocido como DES (Data Encryption Standard), que sería puesto a disposición de las empresas del sector financiero (que lo requerían para el desarrollo de su red de cajeros automáticos), y cuyo conocimiento y difusión pública generó un creciente interés por la moderna criptografía matemática más allá del coto cerrado de los servicios de seguridad. En esa misma década, accedió también al conocimiento público el revolucionario descubrimiento de la criptografía asimétrica o de clave pública (primero el algoritmo de Diffie-Hellman, y luego el algoritmo RSA, de Rivest, Shamir y Adleman, que lo desarrollaron por primera vez en 1977), que resuelve el grave problema de vulnerabilidad al que me he referido que conlleva la distribución de las claves en los tradicionales sistemas de criptografía simétrica, una técnica que es precisamente vital para permitir las comunicaciones seguras entre desconocidos, lo que a su vez es imprescindible para el desarrollo de transacciones económicas en Internet.

Ya en los años noventa, nos encontramos en la vanguardia de este movimiento criptolibertario con un personaje llamado Timothy C. May –más conocido como Tim May-. Este hippie tecnológico californiano, que en su día fue un reputado ingeniero electrónico y científico que trabajó para Intel, publicó en una fecha tan temprana digitalmente hablando como el año 1992 el “Manifiesto Criptoanarquista”, un breve texto en el que anunciaba que la informática estaba al borde de proporcionar la capacidad a individuos y grupos de comunicarse e interactuar entre ellos de forma totalmente anónima. Dos personas pueden intercambiar mensajes, hacer negocios y concertar contratos electrónicos, sin saber nunca el nombre auténtico, o la identidad legal, de la otra. Las interacciones sobre las redes serán intrazables, gracias al uso extendido de re-enrutado de paquetes encriptados en máquinas a prueba de manipulación que implementen protocolos criptográficos con garantías casi perfectas contra cualquier intento de alteración. Las reputaciones tendrán una importancia crucial, mucho más importante en los tratos que las calificaciones crediticias de hoy en día. Estos progresos alterarán completamente la naturaleza de la regulación del gobierno, la capacidad de gravar y de controlar las interacciones económicas, la capacidad de mantener la información secreta, e incluso alterarán la naturaleza de la confianza y de la reputación.(…) Los métodos están basados en el cifrado de clave pública, sistemas interactivos de prueba de cero-conocimiento, y varios protocolos de software para la interacción, autenticación y verificación. El foco hasta ahora ha estado en conferencias académicas en Europa y EE.UU., conferencias monitorizadas de cerca por la Agencia de Seguridad Nacional. Pero solo recientemente las redes de computadores y ordenadores personales han alcanzado la velocidad suficiente para hacer las ideas realizables en la práctica…”.

En los años siguientes, Tim May fue el impulsor y principal contribuyente de textos a varios foros de Internet dedicados a la criptografía y a la ideología criptoanarquista (Cypherpunks electronic mailing links y Cyphernomicon), y es uno de los referentes intelectuales explícitos en el círculo de sujetos involucrados en el diseño de las primeras criptomonedas (como Nick Szabo o Wei Dai).

Con un enfoque no tan político sino más técnico y también de negocio nos encontramos al siguiente personaje, también californiano: David Lee Chaum, un brillante matemático e informático que ya desde los años ochenta fue creando novedosos protocolos criptográficos susceptibles de aplicación en el ámbito del comercio, los pagos e incluso la votaciones on line. En concreto, a él se debe el protocolo conocido como de “firma ciega”, que es el equivalente digital a esas votaciones que se hacen introduciendo un sobre anónimo con la papeleta dentro de otro sobre donde se identifica al votante.

La motivación de Chaum para la creación de este tipo de protocolos fue su preocupación por la privacidad de las transacciones económicas, algo que se estaba perdiendo a medida que se generalizaban los medios electrónicos de pago. Así, una de las propiedades esenciales del tradicional dinero efectivo en forma de monedas metálicas o billetes de papel es su carácter anónimo, de dinero al portador. Por el contrario, todas las nuevas formas de movilizar el dinero representado en cuentas bancarias, mediante transferencias, tarjetas de crédito, pasarelas de pago en Internet, etc. permiten el seguimiento de quién paga qué cantidad a quién y por qué. Y ello hace que un número creciente de datos que pueden revelar mucho sobre mis preferencias y hábitos de consumo y en definitiva sobre mi personalidad, quedan registrados y terminan en una base de datos digital que escapa completamente a mi control.

No voy a detenerme en explicar pormenorizadamente en qué consiste técnicamente el protocolo de firma ciega ideado por Chaum y que éste expuso en una conferencia del año 1982 con el título Blind signatures for untraceable payments. En definitiva, se trata de que un determinado sujeto o autoridad marque con su firma electrónica un concreto ítem digital generado por otro sujeto sin que el primero conozca el contenido del ítem marcado, pero sí de quién procede y de qué tipo de ítem se trata. ¿Y esto para qué sirve? Pues en actuaciones en que interesa que intervenga un tercero verificador o validador, por ejemplo, una autoridad electoral que verifique que quien va a emitir un voto on line está legitimado para votar y sólo vota una vez, pero de manera que esa autoridad verificadora no conozca el contenido del voto validado, dada la necesidad de preservar el secreto de la votación. Tratándose de dinero electrónico, el tercero verificador es el banco que lleva la cuenta del sujeto que pretende generar un ítem o token dinerario digital, porque ese banco es el que verifica si el sujeto emisor tiene saldo suficiente y debe dar de baja el importe correspondiente en su cuenta para evitar la doble disposición. ¿Y en este ámbito para qué sirve un protocolo de firma ciega? Pues para que el banco, una vez realizada la indicada verificación de la legitimación dispositiva del emisor, pueda marcar como válido el token dinerario emitido sin conocer el concreto número de serie que identifica individualmente a éste y permite su control. De esta manera, cuando el sujeto que ha recibido el pago presente un determinado token con su concreto número de serie a este mismo banco para su canje por dinero ordinario, el banco no sabe cuál de sus clientes fue el emisor de ese token y por tanto quién realizó ese concreto pago.

¿Y cómo se consigue que el banco firme un determinado ítem dinerario sin conocer el número de serie que lo individualiza? Aquí es donde interviene el ingenio matemático de Chaum: el emisor, es decir, el cliente del banco que quiere hacer un pago con efectivo electrónico, genera aleatoriamente un número de serie x y antes de remitirlo con su solicitud al banco lo envuelve o disfraza multiplicándolo por un factor C que sólo él conoce. O dicho de otra forma, el emisor envía al banco un número de serie encriptado mediante una función o algoritmo conmutativo C(x), que es reversible realizando la operación aritmética inversa, en este caso, la división C’ por el mismo factor. El banco validador, una vez verificada la legitimación dispositiva del emisor, aplica su firma electrónica con su clave privada S’ a ese número de serie encriptado y remite el resultado, S’(C(x)), al emisor. Éste aplica ahora la división inversa a la multiplicación mediante la que encriptó el número de serie, C’(S’(C(x))), y obtiene S’(x), es decir, el número de serie original con la firma electrónica del banco, o lo que es lo mismo un billete de banco electrónico que se puede emplear para realizar un pago sin que el banco conozca quién ha sido el generador de ese concreto billete. Por tanto, algo absolutamente análogo a la emisión de billetes de banco contra depósitos en efectivo metálico, pero en un entorno digital.

El propio David Chaum intentó llevar a la práctica esta idea con la creación de la empresa DigiCash, con sede en Amsterdam, en el año 1989, un negocio que no llegó a ir bien (de hecho, sólo dos bancos se adhirieron al proyecto: un banco de Missouri llamado Mark Twain Bank, y el Deutsche Bank, no hubo más de 5.000 clientes y el volumen total de pagos no pasó de los 250.000 $). Según explicaría su creador, fue difícil conseguir que un número suficiente de comerciantes aceptasen este medio de pago, de manera que hubiese un número suficiente de consumidores que lo utilizasen, o viceversa. David Chaum se convirtió en un héroe para los criptoanarquistas o cryptoliberterians, pero el problema fue que al consumidor medio no le termina de preocupar demasiado el tema de la privacidad de sus transacciones. Al final, DigiCash quebró y tuvo que vender todos sus activos en el año 1998.

En cualquier caso, lo que me interesa de esta experiencia es que el dinero efectivo electrónico que ideó David Chaum sigue dependiendo del dinero de curso legal ordinario (porque siempre se parte de y se termina en una cuenta bancaria en dólares, euros o cualquier otra divisa estatal); y que el control contable que evita el doble gasto sigue encomendado al sistema bancario tradicional, pues es un banco el que comprueba la legitimación del emisor y da de baja en cuenta la cantidad emitida de cash electrónico.

La futura criptomoneda Bitcoin supondrá un cambio absolutamente radical de modelo.

(La obra pionera sobre criptografía matemática es un artículo de Claude Shannon “Communication Theory of Secrecy Systems”, publicado en el año 1949 en el Bell System Technical Journal, y el libro de Shannon y Warren Weaver “Mathematical Theory of Communication”.

Una explicación del funcionamiento de la máquina Enigma y una narración de las curiosas peripecias de la lucha criptográfica durante la Segunda Guerra Mundial en una obra que ya cité en el anterior post: “Alan Turing. El pionero de la era de la información”, de B. Jack Copeland, Turner Noema, Madrid, 2012, págs. 51 y ss.

Sobre la lucha de los primeros criptoanarquistas contra la NSA: “Cripto. Cómo los informáticos libertarios vencieron al gobierno y salvaguardaron la intimidad en la era digital”, de Steven Levy, Alianza Editorial, 2001.)

El anarco-dinero y la superación del problema del doble gasto

Bitcoin es la primera y más popular criptomoneda. Se trata de moneda electrónica anónima (al portador) y descentralizada. Lo disruptivo no es la condición electrónica del dinero-la mayoría de las transacciones dinerarias en los países desarrollados ya lo son-sino la descentralización del procedimiento. Se trata de un sistema que aspira a garantizar robustez en el flujo dinerario sin el concurso de terceros interpuestos. Sin que la transacción precise la consolidación contable entre los bancos del deudor y del acreedor.

Bitcoin es sólo uno de los fenómenos tras una corriente de pensamiento que emerge con fuerza. Para entenderlo hay que reflexionar sobre la filosofía que hay detrás, intercambio de ficheros, el código libre o Blockchain.

Uno de los anhelos anarco-capitalistas es contar con dinero que permita transacciones al margen del control de los Estados y sus bancos centrales. Dinero de adopción voluntaria que pueda ser aceptado como medio de pago universal permitiendo el anonimato que en la actualidad proporciona el dinero al portador. Algo que permita un flujo dinerario descentralizado, ágil, anónimo y eficaz.

Para que el flujo dinerario sea eficaz es imprescindible que el anarco-dinero utilizado como cualquier otro, solucione lo que se ha dado en denominar “el problema del doble gasto”. Es consustancial con el funcionamiento del dinero, en cualquier formato, que quien lo utiliza para pagar a un tercero agote el ulterior derecho de disposición sobre este, otorgándoselo al acreedor al que ha pagado, y así sucesivamente. De no ser así, el anarco-dinero estaría en una  espiral inflacionista que supondría su desaparición.

Cuando se usa efectivo (monedas y billetes) la traslación de su posesión evita ulteriores disposiciones por parte de quien paga. El problema del doble gasto se soluciona por pérdida de la posesión de algo tangible. La entrega del metal o papel impide el doble gasto.

La utilización del dinero efectivo permite que la identidad de acreedor y deudor sea sólo conocida, en su caso, por ellos mismos. Es opaca para cualquiera que no haya presenciado el pago. Presenta abundantes inconvenientes como los pagos a distancia, los robos, la intrínseca limitación de la condición metálica de la moneda en cuanto a peso y volumen, etc. Por estos y otros motivos el formato y naturaleza del dinero ha ido evolucionando. Sin embargo, siempre ha existido el objetivo común de evitar su doble gasto. Así por ejemplo, los billetes no son sino títulos al portador cuya entrega agota el derecho de disposición de su inicial poseedor.

Si queremos que el anarco-dinero funcione, también tiene que ser ágil. Como el presupuesto necesario para la eficacia de cualquier dinero es evitar su múltiple disposición, habrá de llevarse una contabilidad única de todas las transacciones de los adheridos a la anarco-moneda. La exigencia en la llevanza de esta contabilidad será creciente, en función del número de adhesiones y del de transacciones. Es evidente que, la recepción de órdenes de transferencias, la verificación de la identidad del pagador, la verificación de la existencia de saldo y la consolidación contable del dinero transmitido, es una labor de difícil asunción universal y solitaria.

Además la llevanza solitaria de la contabilidad invita a cuestionar la incondicional honorabilidad de quien la lleva. Desde una perspectiva anarquista, la posibilidad de manipulación de la matriz permanece en la medida en que el control de esa contabilidad recaiga en concretas personas, que serán igualmente corruptibles.

La solución pasa por una llevanza colaborativa de la contabilidad. Los intervinientes en el tráfico dinerario llevan coordinada o recurrentemente su contabilización. Sin embargo, lo inconvenientes de orden práctico de esta llevanza colaborativa son fácilmente imaginables. Alcanzar consensos en un entorno analógico requiere tiempo y esfuerzo que rápidamente comprometerían la agilidad del anarco-dinero.

Pero, teniendo en cuenta la condición eminentemente electrónica del dinero ¿es posible con ayuda de ingenieros informáticos y algoritmos matemáticos, emular el funcionamiento del dinero al portador en un entorno ágil y fiable? Para ello, insisto, habrá que recepcionar todas las órdenes de pago, verificar la identidad del deudor, actualizar el saldo y registrar el asiento contable que acredita la transacción y todo eso hacerlo de forma descentralizada.

Cuando el dinero es electrónico, el problema del doble gasto se soluciona por interposición; mediante la consolidación de las contabilidades de los interpuestos entre acreedor y deudor. Se interponen en su concepción de mandatarios de una orden de recepción o pago. Si la transferencia electrónica del dinero fuese directa, sin terceros interpuestos que verificasen la existencia de saldo y consolidasen los asientos contables, el deudor siempre podría cuestionar la existencia de las previas transacciones que le habrían despojado de su derecho de disposición. Los interpuestos actúan como testigos de la transacción. Como su testimonio es electrónico, cuentan con un registro informático que acredita la existencia del mandato de pago y su cumplimiento. La interposición bancaria es sin embargo, centralizada, con lo que no cumple con el presupuesto esencial del anarco- dinero. Ni las transacciones son anónimas, ni la contabilización de éstas se produce de forma descentralizada o colaborativa. Para lograrlo, debemos contar con un registro informático único en el que se anoten las transacciones de forma colaborativa, que se consigue con lo que se ha dado en denominar Registros Distribuidos, que es en definitiva la tecnología tras Blockchain

(Para profundizar sobre Bockchain véase: “Blockchain; perspectiva jurídica. De la confianza al consenso”,  de José María Anguiano)

Sobre el origen intelectual de blockchain (I). Los precursores remotos

En mi anterior aportación a este blog aludí a ciertos obstáculos intelectuales con los que podemos tropezar los juristas a la hora de enfrentarnos al concepto de smart contract y al fenómeno blockchain en general, siendo el primero de ellos un déficit de formación tecnológica. Precisamente, una de las peculiaridades de esta tecnología, de cuyas múltiples aplicaciones y potencial disruptivo habla todo el mundo, es que presenta un considerable umbral intelectual de acceso: es algo que cuesta explicar y comprender.

En este post y en el siguiente voy a intentar aportar un poco de perspectiva sobre el asunto, lo que quizá pueda ayudar a discernir la señal –lo significativo- de todo el ruido mediático que ahora mismo está provocando tantas interferencias.

En concreto, en el par de posts que he previsto voy a hacer referencia a algunos personajes cuyas aportaciones intelectuales han sido importantes en el camino que ha llevado tanto a las criptomonedas como a blockchain. Al respecto, distinguiré uno precursores remotos y unos precursores próximos.

Como precursor remoto podría aludir al filósofo alemán Leibniz, que a finales del siglo XVII, además de fabricar una calculadora universal mecánica, concibió la idea de una máquina que almacenaba y manejaba información codificada en código digital binario. Pero me voy a centrar en dos personajes más cercanos, que vienen siendo considerados como los padres fundadores de la informática: el británico Alan Turing y el húngaro nacionalizado estadounidense John von Neumann. ¿Y por qué los traigo a colación? Pues no sólo porque en los años treinta y cuarenta del pasado siglo sentaron las bases intelectuales, de naturaleza lógico-matemática, que dieron lugar al desarrollo de la informática y con ella del universo digital en que ahora habitamos, sino porque, además, algunas de sus ideas y visiones anticiparon gran parte de la transformación que justo ahora estamos viviendo.

Alan Turing es conocido en nuestros días por el gran público sobre todo por una película reciente (The Imitation Game -“Descifrando enigma”, en España-, del año 2014) dedicada a su actividad durante la Segunda Guerra Mundial en el servicio de inteligencia de la Marina británica, donde contribuyó a descifrar los códigos de la célebre máquina de encriptación Enigma que empleaban en sus comunicaciones la armada y el ejército alemán. Esto ya nos resulta interesante por su relación con el tema de la criptografía. Pero, sobre todo, quiero hacer referencia al trabajo que le hizo célebre, publicado en el año 1936 en la prestigiosa revista Proceedings of the London Mathematical Society: “Sobre los números computables, con una aplicación al Entscheidungsproblem”.

El Entscheidungsproblem o problema de la decidibilidad es una ardua cuestión lógico-matemática que tuvo ocupados a algunos lógicos y filósofos a principios del siglo XX desde que el matemático alemán David Hilbert la plantease en un escrito programático del año 1900 como uno de los retos pendientes para la centuria que entonces comenzaba: ¿es posible que la matemática dé una respuesta de tipo demostrativo a todos los problemas que ella misma plantea? O dicho de otra forma, ¿es posible la axiomatización plena de la matemática para reconstruirla como un sistema completo y autoconsistente? Hilbert, adalid de lo que se conoce como formalismo lógico, pensaba que sí, y Russell y Whitehead creyeron haberlo logrado con su obra Principia Mathematica. Sin embargo, un ensimismado profesor de lógica austriaco llamado Kurt Gödel demostró que no era posible en un difícil y revolucionario artículo publicado en el año 1931, donde formuló lo que se conoce como el teorema de incompletitud de Gödel.

En la estela de Gödel, en el citado trabajo Turing –como una simple estrategia discursiva en relación con el problema de los límites de la computabilidad- concibió la primera máquina –que sería conocida como la “máquina universal de Turing” y que por entonces era sólo una construcción teórica- de “programa almacenado”, es decir, dotada de una memoria que no sólo conservaría datos, sino también el propio programa para el manejo o cómputo de esos datos, una máquina que sería reprogramable y capaz de computar todo lo computable (es decir, lo que hoy entendemos por un ordenador). Tampoco puedo dejar de mencionar su temprano interés por la inteligencia artificial, hasta el punto de que hoy se sigue empleando el llamado “test de Turing” para evaluar la mayor o menor inteligencia de un dispositivo.

Pues bien, cuando en el año 2014 ese niño prodigio ruso-canadiense llamado Vitalik Buterin, con tan solo 19 años, pone en marcha esa blockchain de segunda generación llamada Ethereum, nos va a decir que se trata de una blockchain que utiliza un lenguaje de programación Turing-completo, y que aspira a convertirse en la máquina universal de programación, the World Computer. Esto supone precisamente llevar la idea originaria de Turing a una nueva dimensión: no se trata de crear una máquina individual reprogramable de objeto de cómputo universal, sino de la existencia de una red tendencialmente universal de ordenadores que no sólo registran de forma simultánea esos mensajes sencillos que son las transacciones de bitcoins, sino que en ellos se puede ejecutar a la vez cualquier operación que sea programable, conservándose todos los pasos del proceso y su resultado en un registro distribuido, transparente, no manipulable y de acceso universal. O dicho de otra forma, no sólo universalidad en cuanto al objeto programable –como la máquina virtual de Turing y nuestros actuales ordenadores-, sino también universalidad en cuanto a los agentes o dispositivos que operan, ya que el programa se ejecuta y su resultado se registra simultáneamente por una infinidad de ordenadores repartidos por todo el mundo.

En cuanto a John von Neumann, se trata de uno de los grandes genios científicos del siglo XX, de un nivel comparable al de un Einstein. En lo que concierne a nuestro tema, von Neumann fue el creador de la estructura lógica de una de las primeras computadoras digitales electrónicas de alta velocidad y memoria almacenada con la que se hizo realidad la imaginada máquina universal de Turing. Esa computadora, conocida por las siglas EDVAC, fue fabricada a finales de los años cuarenta en el Instituto de Estudios Avanzados de Princeton (USA), como instrumento para la realización de los complejos y laboriosísimos cálculos matemáticos que requería el diseño y control de las primeras bombas atómicas. De hecho, todavía hoy la estructura de todos los ordenadores que utilizamos obedece a lo que se conoce como “arquitectura von Neumann”, que distingue la memoria, el procesador, la unidad central de control y los elementos de comunicación con el exterior para la entrada y salida de datos.

Pues bien, aparte de que cualquier aplicación o desarrollo de la tecnología informática es deudora -pese a su prematura muerte con 53 años- de las visiones y concepciones de von Neumann (incluso la inteligencia artificial, que fue el objeto de sus últimas reflexiones en obras como la “Teoría de los autómatas autorreproductivos”), quiero referirme aquí a dos ideas de este gran pionero de la informática.

En primer lugar, en los años que siguieron al final de la Segunda Guerra Mundial había escasez de casi todo y para la construcción del EDVAC se tuvo que echar mano de equipos y materiales de desecho de la industria bélica. Conseguir que funcionase correctamente una máquina fabricada ensamblando ese tipo de elementos fue un verdadero reto al que se enfrentó Von Neumann con la idea de que había que construir una máquina fiable a partir de miles de componentes no fiables. Esta idea, que desarrolló teóricamente en dos artículos de los años 1951 y 1952 (“Organizaciones fiables de elementos no fiables” y “La lógica probabilística y la síntesis de organismos fiables a partir de componentes no fiables”), enlaza con la formulación, ya en los años ochenta y en relación con la fiabilidad de las redes de ordenadores creadas con fines de defensa, de lo que se conoce como el “problema de los generales bizantinos” –al que se suele aludir en las explicaciones de blockchain-. Por supuesto, tiene que ver también con un concepto que hoy está en boca de todos con el nombre de “resiliencia”; y se encuentra en el mismo núcleo del diseño de blockchain: cómo crear el sistema de registro más fiable y transparente que haya existido nunca partiendo sólo de agentes individuales particulares cualquiera de los cuales podría ser un tramposo.

En relación con el diseño de blockchain también podemos rastrear la huella de otra gran aportación intelectual de von Neumann. Como éste estaba dotado de una inteligencia universal, no sólo se interesó por y revolucionó la lógica de conjuntos, la física cuántica y la ciencia de la computación, sino que también hizo su incursión –no menos revolucionaria- en la ciencia económica, donde fue el pionero de la teoría de juegos, con una obra de la que fue coautor junto con Oskar Morgenstern en el año 1944 con el título “Teoría de juegos y comportamiento económico”. Pues bien, mucho de teoría de juegos, de análisis de la racionalidad de las decisiones estratégicas de los agentes individuales que operan en una economía teniendo en cuenta los comportamientos probables de los demás agentes, está también presente en el inteligente diseño que explicó el enigmático Satoshi Nakamoto en su paper del año 2008. En último término, una blockchain pública como la que sirve de base a Bitcoin está diseñada partiendo de la idea de que la persecución del interés individual de ganancia de unos agentes -los “mineros”- redunda en la fiabilidad general del sistema; así como en la idea de que resulta muy poco racional defraudar un sistema para obtener un activo cuyo valor económico depende directamente de la confianza general en la fiabilidad de ese sistema.

(Recomiendo a quien sienta curiosidad por estos temas la lectura de los siguientes libros, disponibles en nuestro idioma: “La catedral de Turing. Los orígenes del universo digital”, de George Dyson, Debate, Barcelona, 2015; “Alan Turing. El pionero de la era de la información”, de B. Jack Copeland, Turner Noema, Madrid, 2012; y “Gödel. Paradoja y vida”, de Rebecca Goldstein, Antoni Bosch, Barcelona, 2010.)

El jurista ante el smart contract

A la hora de enfrentarnos al fenómeno de los smart contracts los juristas tendemos a tropezar con dos grandes obstáculos:

– En primer lugar, un problema de comprensión de la tecnología, y ello tanto de la específica que está implicada en la arquitectura y funcionamiento de una blockchain, como de la genérica tecnología informática. Por un lado, qué es exactamente una red peer-to-peer, cómo funciona la criptografía asimétrica o de doble clave, qué son los hashes o la prueba de trabajo, cómo se logra el consenso de los nodos, qué es un fork, etc.; y por otro lado, qué es un algoritmo, o una string de bits, qué es programar, en qué consiste un “código” en sentido informático, qué es “compilar” un programa, o “editarlo”, o “ejecutarlo”. Sin una mínima familiaridad con todos estos conceptos cualquier esfuerzo de análisis o enjuiciamiento jurídico de los smart contracts resulta baldío, en definitiva, porque no sabemos de lo que estamos hablando.

Así, cuando definimos un smart contract como un contrato que se “autoejecuta”, ¿estamos teniendo en cuenta que un programa informático lo único que hace, en principio, es manejar información, realizar unas operaciones con unos datos siguiendo unas reglas o instrucciones determinadas para dar como resultado unos nuevos datos? Qué relación tiene esto con el cumplimiento, performación o ejecución práctica de un contrato no es algo evidente.

Precisamente, la puesta en práctica de la idea de un contrato inteligente está ligada a la creación de esos peculiares “activos” que son las criptomonedas, que no tienen más consistencia que la de ser pura información digital y por tanto son activos cuya “circulación” es programable, susceptible de ser plenamente controlada por un programa informático cuyos resultados (quién es el titular actual de una determinada suma de bitcoins) se van simplemente registrando en una base de datos digital. Tratándose de otros activos cuya consistencia es puramente digital –un archivo de sonido o de imagen que contiene una obra susceptible de propiedad intelectual-, también esa programación informática de su negociación y de la ejecución de ésta resulta fácilmente concebible (porque es posible una puesta a disposición del activo puramente digital y telemática). Pero en el caso de que nuestro contrato inteligente tenga por objeto otro tipo de bienes como la propiedad o el uso de bienes materiales, derechos de crédito contra un determinado sujeto, derechos corporativos o de participación en una empresa, necesariamente deberemos con carácter previo “tokenizar” estos bienes o derechos, es decir, representarlos mediante fichas digitales susceptibles de programación. Esto, por supuesto, plantea el problema –ya sí esencialmente jurídico- de en qué medida nuestro ordenamiento puede llegar a reconocer la validez de esa forma de circular estos bienes o derechos tokenizados cuando sea preciso obtener la efectividad práctica de esos derechos en la realidad exterior a la memoria del dispositivo o dispositivos –en su caso, en red- que ejecutan un determinado programa. O dicho de otra forma, en qué medida la “legitimación” que proporciona el código que se ejecuta sobre la cadena de bloques valdrá también como legitimación jurídica fuera de la red (problema que no suscitan las criptomonedas, en cuanto sólo existen, operan y desenvuelven toda su eficacia  en la red).

En la medida en que el desarrollo de la Internet de las Cosas lleve consigo la proliferación de objetos materiales dotados de dispositivos electrónicos que permitan tanto su conexión y comunicación con la red como su control automático programable, el contrato inteligente podrá conseguir respecto de este tipo de bienes una autoejecución más efectiva y autosuficiente, menos necesitada del apoyo de los mecanismos tradicionales de la coerción jurídica y por tanto menos dependiente –al menos a priori- del aludido reconocimiento de su legitimidad jurídica.

En cualquier caso, con esta primera observación quiero llamar la atención sobre el dato de que en esta materia de los smart contracts el conocimiento y la comprensión de la tecnología, de lo que ésta es capaz o no de hacer en la práctica, ha de preceder a cualquier enjuiciamiento jurídico.

– Esto me lleva al segundo gran problema, que no es tanto de conocimiento como de enfoque: nos enfrentamos al asunto equipados con todos nuestros prejuicios jurídicos, y esto puede perturbar gravemente nuestra visión. Fundamentalmente, nos confunde una terminología tan equívoca como la de “contrato inteligente”, que nos trae a la mente de forma inmediata nuestro concepto jurídico de contrato y todo lo que éste conlleva. Así, nos ponemos demasiado pronto a plantear cuestiones de validez o invalidez jurídica, de eficacia o ineficacia jurídica, de si se cumplen o no los requisitos para la obtención de un reconocimiento legal, incluso de prueba y de virtualidad procesal; y no nos damos cuenta de que ése no es realmente el quid de la cuestión. En el fondo del asunto hay una cuestión más radical, que nos puede pasar desapercibida por culpa de esa precomprensión jurídica nuestra. De lo que se trata no es de una nueva figura más o menos atípica que trata de encontrar acomodo en el marco de nuestro sistema jurídico, sino más bien de algo que en su planteamiento más originario pretende ser una alternativa a todo nuestro sistema jurídico.

Un smart contract, en puridad, no pretende ser un contrato jurídico, porque no necesita serlo, de la misma manera que Bitcoin –en la concepción de sus creadores- no pretende ser dinero reconocido legalmente, dinero de curso legal, sino más bien un dinero para una sociedad humana que ha dejado ya muy atrás, como innecesarias, las nociones de Estado nacional, de leyes y de jurisdicciones nacionales.

Necesitamos el apoyo de una jurisdicción, de los tribunales de un determinado país, y como presupuesto de ello el reconocimiento del significado y valor jurídico de un determinado arreglo o composición de intereses por parte de la legislación de ese país, en la medida en que, de facto, el cumplimiento o realización práctica de lo acordado depende de la voluntad de un ser humano. De manera que, cuando falle o nos sea esquiva o renuente esa voluntad, pediremos el auxilio de la fuerza de un Estado. Sin embargo, si la tecnología nos ofrece la posibilidad de que esa composición acordada de intereses se haga efectiva de una forma mecánica o automática con completa independencia de la voluntad de un sujeto “obligado”, entonces no solo la noción de contrato, sino todo el aparato tanto normativo como institucional y organizativo propio de lo que conocemos como “derecho contractual” devienen irrelevantes.

Claramente, este es el enfoque propio de los precursores intelectuales e ideológicos de todo este asunto –los criptoanarquistas-: un utopismo tecnológico según el cual determinados problemas de intercambio y cooperación económica, que hasta ahora se instrumentaban de forma muy insatisfactoria (lenta, cara, farragosa, insegura) mediante los sistemas jurídicos tradicionales, pueden ser manejados de forma mucho más eficiente mediante la simple intervención de herramientas tecnológicas que ya están a nuestro alcance.

Partiendo de ello, la verdadera cuestión que debe merecer nuestra atención como juristas es: primero, si realmente esto que se pretende es posible, en un plano meramente práctico, y con qué alcance –en todos los ámbitos de relaciones humanas que hasta ahora cubría el derecho contractual o sólo en algunos ámbitos-, y cómo es posible; y segundo, si esta forma alternativa de hacer las cosas resulta desde un punto de vista valorativo y teniendo en cuenta todos los posibles intereses que están en juego (no solo la pura eficiencia económica, la agilidad y seguridad de las transacciones, sino también la necesidad de protección de las partes más débiles de las relaciones económicas, de intereses patrimoniales o vitales especialmente delicados, de la solidaridad social que se supone sirve de fundamento a la fiscalidad, etc.) algo aceptable y conveniente, y en qué ámbitos sí y en qué ámbitos quizá no. Pero siempre siendo muy conscientes de que nos enfrentamos a un fenómeno que en gran parte supera nuestras fuerzas, las fuerzas de un Estado nacional cualquiera, que fácilmente puede verse desbordado por los acontecimientos en su intento de poner puertas al campo.