Limitación y control del tiempo de trabajo (Derecho al descanso y conciliación)

La cuestión fundamental, en relación con el tiempo de trabajo, ha sido históricamente la de la limitación de su duración. Las luchas históricas por la jornada de ocho horas culminaron, por regla general, en el establecimiento legal de una duración máxima de la jornada diaria de trabajo. Con alguna excepción notable (Japón), la mayoría de los países occidentales, así como la normativa internacional, consagran una jornada máxima en el entorno de las ocho horas diarias, si bien con particularidades en cuanto a su cómputo semanal, mensual y anual. El respeto de dicha jornada, su adaptación (y reducción) por los convenios colectivos, y la limitación de las horas extraordinarias, han centrado la preocupación en casi todos los países. Y uno de los temas centrales de tal preocupación ha sido el del control del tiempo del trabajo efectivamente prestado, tanto para asegurar el cumplimiento de la normativa sobre el derecho al descanso como para permitir, en su caso, la sanción de su incumplimiento.

En los últimos años han entrado en juego nuevas preocupaciones. En particular las relacionadas con los derechos de conciliación de la vida laboral y personal (familiar), que plantean cuestiones relativas más a la ordenación del tiempo de trabajo que a su duración (y en las que influyen también los planteamientos dirigidos a obtener una mayor igualdad de las mujeres en el ámbito laboral), y las derivadas de la irrupción de las nuevas tecnologías y de las nuevas formas de prestación y de organización del trabajo permitidas o propiciadas por ellas. En este último aspecto, destacan los intentos de limitar la extensión “disimulada” o encubierta del tiempo de trabajo mediante la consagración de un nuevo derecho de “desconexión” digital. Sin embargo, en este terreno nos movemos todavía en términos muy generales, que descienden poco a la concreción y al detalle, quizás porque a la novedad del problema se añade la dificultad de formular soluciones normativas para el mismo. Buena prueba de ello es la reciente Ley de Protección de datos personales y garantía de los derechos digitales (Ley Orgánica 3/2018, de 5 de diciembre), que consagra el derecho a la desconexión digital en el ámbito laboral pero que deja su regulación a las políticas internas de la empresa, con sujeción a lo que haya podido acordarse al respecto en la negociación colectiva.

Tanto para la primera como para la segunda vertiente del tema, aunque ciertamente más para la primera, resulta crucial la identificación de un sistema de control de la jornada efectivamente realizada. Y aquí surge la cuestión, tan de actualidad a raíz del Real Decreto-ley 8/2019, de 8 de marzo, del registro de la jornada. En el Estatuto de los Trabajadores dicho registro solo venía impuesto en el caso del trabajo a tiempo parcial y a efectos del cómputo de horas extraordinarias. Si la Audiencia  Nacional consideró que, a pesar de ese silencio del legislador, el registro diario de la jornada resultaba obligado a efectos de control del cumplimiento de las limitaciones establecidas, el Tribunal Supremo sostuvo que no cabía enmendar la letra de la ley e imponer un registro horario más allá de los casos expresamente contemplados en la misma (tiempo parcial y horas extraordinarias). En esta situación (sobre la que pende una decisión del TJUE, ya que la AN volvió a la carga planteando una cuestión prejudicial), el Decreto-ley 8/2019, recogiendo las pretensiones sindicales, establece que “la empresa garantizará el registro diario de la jornada, que deberá incluir el horario concreto de inicio y de finalización de la jornada de trabajo”. Se trata de un cambio trascendental, porque se consagra legalmente la obligación empresarial de garantizar el registro diario de la jornada, con concreción horaria de su comienzo y de su finalización.

¿Solucionará esto los problemas del control del cumplimiento de las normas sobre tiempo de trabajo? Probablemente no, y no solo eso sino que creará nuevos problemas. Es una fórmula clara en sus términos y precisa en sus objetivos, pero simplista y difícilmente conciliable, en su simplicidad, con las actuales características, complejas y diversificadas, del sistema productivo (en el que ya no prevalece la producción fabril), con los condicionamientos de la organización del trabajo y de la creciente influencia en ella de las tecnologías de la información. Sin contar con que la obligación de registro ya existe para el trabajo a tiempo parcial y las amplias bolsas de fraude en el mismo no han podido erradicarse.

Además, el establecimiento de la obligación de registro se acompaña de una serie de matices que anulan la pretendida simplicidad del mandato y que hacen surgir numerosos y delicados problemas interpretativos.

En primer lugar, la obligación de registro se garantiza “sin perjuicio de la flexibilidad que se establece” en la ley. ¿Qué significa esto? La  distribución irregular de la jornada, por ejemplo, ¿hasta qué punto puede alterar la obligación de registrar diariamente el comienzo y el fin de la misma? Y ¿hasta qué punto puede hacerlo el acuerdo para una distribución del tiempo de trabajo diario alternativa a la duración máxima de nueve horas? ¿O el derecho a adaptar la duración y distribución de la jornada de trabajo para facilitar la conciliación? Si la obligación de registro diario de la jornada no puede perjudicar, como quiere el legislador, la flexibilidad horaria que la propia ley contempla, habrá que concretar en qué términos y con qué alcance dicha flexibilidad puede exigir un sistema de registro diverso del establecido como regla general.

 

Por otra parte, hay que tener en cuenta también que se prevén “especialidades en las obligaciones de registro de jornada, para aquellos sectores, trabajos y categorías profesionales que por sus peculiaridades así lo requieran”. Los sectores y trabajos que presenten peculiaridades en relación con la jornada y su registro, particularmente los contemplados en el Decreto sobre jornadas especiales de trabajo, ¿podrán esperar a que el Gobierno regule esas especialidades? Más complicada es la referencia a las “categorías profesionales”, introducida por el Decreto-ley, que está absolutamente huérfana de concreción. ¿Cabrá alegar que para categorías profesionales dotadas de especialidad en materia de jornada y de su registro, será necesario esperar al desarrollo reglamentario? Nos encontramos ante una nueva fuente de dudas y de incertidumbres, con la consiguiente mortificación de la seguridad jurídica. Quizás hubiese sido conveniente establecer que, en relación con los sectores, trabajos y categorías profesionales con especialidades, la entrada en vigor de la nueva normativa no se produciría hasta que tuviese lugar la regulación de tales especialidades.

En tercer lugar, el mandato de registro diario de jornada se organizará y documentará mediante negociación colectiva o acuerdo de empresa, o en su defecto mediante decisión del empresario previa consulta con los representantes legales de los trabajadores. Aquí las dudas interpretativas se vuelven a disparar. ¿Ha de tratarse de un convenio de empresa o puede un convenio sectorial organizar y documentar el registro de jornada? La postura más razonable es la de considerar que ha de tratarse de un convenio de empresa, adaptado a sus características y particularidades. Además, habrá que plantearse si la negociación puede, o debe, hacerse por centro de trabajo, ya que las circunstancias que inciden sobre el registro de jornada pueden variar de unos a otros. Por otra parte, caso de no existir representantes de los trabajadores, ¿subsiste en todo caso la obligación empresarial de decidir acerca de la organización y documentación del registro?

Por último, el acuerdo o la decisión de organización y documentación ¿es requisito imprescindible para que resulte de aplicación la obligación de registro de jornada? ¿Se condiciona la entrada en vigor de la obligación de registro al acuerdo o a la decisión? ¿El plazo de dos meses para la entrada en vigor de la obligación de registro es el plazo concedido a la negociación colectiva para alcanzar un acuerdo, de tal manera que transcurrido dicho plazo sin acuerdo el empresario debería decidir sobre la organización y documentación del registro? Y cabe plantearse si en el proceso de negociación las partes podrían ampliar de común acuerdo el plazo de dos meses previsto en la disposición final, de tal forma que se retrasase la aplicación de la obligación de registro mientras continuase la negociación.

Lo cual nos lleva, por último, a la regulación como infracción laboral de la “transgresión de las normas” en materia de registro de jornada. Visto el panorama interpretativo brevemente enunciado, no parece que una formulación como esa respete el principio de tipicidad de las infracciones. ¿Cuál es la infracción? ¿El transcurso de los dos meses de vacatio legis sin que se pacte o se decida la organización del registro? ¿La negativa a negociar dicha organización? ¿Puede ser controlado administrativamente el contenido del acuerdo para la organización y documentación del registro? ¿Puede la Administración oponerse a la compatibilización pactada para acomodar las exigencias del registro y las de la flexibilidad horaria? Parece que la única infracción clara sería la del incumplimiento del sistema de registro de jornada, una vez desarrollado (en lo que se refiere a su organización y documentación) por acuerdo colectivo o por decisión del empresario. Habrá que ver hasta dónde llega el intervencionismo administrativo en esta materia, que no parece fácilmente reconducible a esquemas simplistas.

Un último apunte. ¿Es esta una regulación en la que concurra la extraordinaria y urgente necesidad? ¿Es compatible la extraordinaria y urgente necesidad con una regulación a la que se concede un periodo de vacatio de dos meses y que se condiciona, al menos parcialmente, a desarrollos reglamentarios y a la negociación de acuerdos para su implementación?

La integridad documental en el medio digital: del depósito del soporte a la función hash (Explorando la frontera digital III)

En el anterior post de esta serie intenté explicar cómo la digitalización es una peculiar forma de codificar información, consistente en emplear un código de dígitos binarios (cuestión puramente lógica o lingüística), lo que a su vez permite la mecanización electrónica del manejo de esa información (cuestión tecnológica).

La importancia del mensaje para los juristas

Dando un paso adelante, introduzco ahora la idea de que los juristas tenemos una relación muy especial con la información, o lo que es lo mismo, con el lenguaje. Para nosotros el lenguaje no es simplemente un medio para comunicar o transmitir información sobre el mundo, o para expresar y compartir nuestros sentimientos, emociones o estados de ánimo, sino que con el propio lenguaje hacemos cosas: contratamos, nos obligamos, renunciamos derechos, disponemos de nuestros bienes para cuando hayamos muerto, contraemos matrimonio, y también promulgamos leyes, dictamos sentencias y condenamos e imponemos sanciones… Todas estas peculiares acciones forman parte de eso que los filósofos del lenguaje llaman el uso performativo del lenguaje: acciones que sólo se realizan pronunciando o escribiendo determinadas palabras y que producen efecto en ese peculiar plano de realidad o sentido que es el plano de la validez o eficacia jurídica.

Y precisamente por ello, para nosotros la “documentación” –la fijación con certeza de quién y cuándo ha dicho exactamente qué, de manera que se olvide y se pueda hacer presente y acreditar en cualquier momento- no es una tarea secundaria o accesoria, sino algo que pertenece al mismo núcleo de nuestro ámbito de actividad y preocupación.

Y también por ello, cómo podemos documentar en ese entorno digital y sin papel al que nos vemos inexorablemente abocados se convierte en una cuestión de gran relevancia jurídica.

Al respecto, son tres las exigencias básicas que ha de satisfacer un sistema documental: integridad, autoría y sello de tiempo (como anticipé: qué se ha dicho, por quién y cuándo).

El documento: intgredidad, autoría y sello de tiempo

En la civilización del papel, la integridad se garantiza mediante la inextricable unión física entre la tinta con la que se han trazado unos determinados símbolos alfanuméricos y la fibra de que está hecha una concreta e individual hoja de papel. Por eso, el documento, en su significado clásico, es siempre un objeto que pertenece al mundo material. Se identifica con ese espécimen individual que forman unas determinadas hojas escritas. Y es algo que podemos destruir, pero no fácilmente adulterar, o al menos no de forma que sea difícil de detectar (intercalando, enmendando o tachando alguna palabra o cifra para modificar el sentido de lo originariamente escrito).

En cuanto a la autoría, es decir, a la posibilidad de imputar la responsabilidad por lo dicho a una persona o personas determinadas, la herramienta que se ha venido empleando por excelencia para ello en el universo del papel ha sido la firma manuscrita o autógrafa. Se trata de un signo cuya generación requiere intervención física personal, que está vinculado de forma reconocible o acreditable a una determinada persona y cuya incorporación al pie del texto escrito tiene atribuido el significado jurídico de asentimiento voluntario y asunción como propias de las declaraciones que contiene dicho texto (algo que en sí puede ser independiente de la autoría tanto intelectual como material del texto en que consiste el documento).

Y en cuanto al sello de tiempo, aunque la propia materialidad del documento y de su firma puede ser reveladora de su antigüedad temporal, la precisión con exactitud del momento en que ha sido creado y suscrito un documento con relevancia jurídica es algo que se ha solido confiar a la intervención de alguna autoridad u oficina pública confiable (un notario, un registro público).

¿Y cómo satisfacemos estas mismas necesidades de certeza documental –que son vitales desde un punto de vista jurídico- una vez que abandonamos el escrito en soporte papel y lo sustituimos por eso tan evanescente como es un archivo informático sobre soporte electrónico? ¿Cómo identificamos el contenido exacto de un concreto archivo? ¿Cómo imputamos su autoría a una persona determinada? ¿Y cómo acreditamos su fecha de forma indubitada?

En este post me ocuparé de cómo se ha dado respuesta a la primera de estas cuestiones.

El problema de la integridad

Al respecto, he de empezar diciendo que no ha habido una respuesta o solución única, sino varias, siendo algunas más rudimentarias que otras.

La primera solución -y la menos sofisticada- ha consistido en identificar el archivo (es decir, el fragmento de información digitalizada) por el soporte. Se graba una copia del archivo cuyo contenido se quiere asegurar con certeza en un determinado soporte físico y se confía la custodia de éste a un agente merecedor de confianza, por excelencia, un notario. Así, hace años que los notarios venimos recibiendo en depósito disquetes, discos CD-ROM, DVD, lápices de memoria e incluso discos duros y hasta ordenadores enteros como forma de poder acreditar a posteriori el contenido de un determinado archivo o archivos registrados en esos soportes.

Se trata de un procedimiento muy poco sofisticado porque, en último término, se basa en la conservación de un concreto soporte físico, en la interposición de un tercero de confianza y en una cadena de custodia que se rompe en el mismo momento en que el soporte se restituye por el notario a quien lo depositó o se entrega a cualquier otra persona, salvo si el mismo notario, antes de esa entrega, procede a acceder al contenido del soporte y a generar una copia en papel y bajo su fe del archivo correspondiente (lo que supone, en definitiva, tener que volver al mundo del papel y a las herramientas de autenticación propias de éste).

Un segundo sistema consiste en la referencia a una información registrada en una web confiable. Este es el sistema que se emplea para verificar la autenticidad de certificados, autorizaciones, licencias y otro tipo de documentos emitidos en formato electrónico por determinadas autoridades u organismos públicos. Un ejemplo pueden ser las certificaciones de reserva de denominación social emitidas en formato electrónico por nuestro Registro Mercantil Central. El texto del archivo incorpora un CSV (código seguro de verificación), que es un código alfanumérico que sirve simplemente para identificar el documento y poder hacer una búsqueda de éste en un repositorio accesible en la web de la autoridad o entidad emisora.

A este concepto se refiere el artículo 18.1.b) de la Ley 11/2007, de Acceso Electrónico de los Ciudadanos a los Servicios Públicos, en los siguientes términos: “Código seguro de verificación vinculado a la Administración Pública, órgano o entidad y, en su caso, a la persona firmante del documento, permitiéndose en todo caso la comprobación de la integridad del documento mediante el acceso a la sede electrónica correspondiente”. Y el artículo 30.5 de la misma Ley nos dice que “Las copias realizadas en soporte papel de documentos públicos administrativos emitidos por medios electrónicos y firmados electrónicamente tendrán la consideración de copias auténticas siempre que incluyan la impresión de un código generado electrónicamente u otros sistemas de verificación que permitan contrastar su autenticidad mediante el acceso a los archivos electrónicos de la Administración Pública, órgano o entidad emisora.”

En un sistema como éste, la integridad documental se basa en un cotejo de la copia electrónica (o impresa en papel) que se presenta como auténtica con el archivo accesible en la web correspondiente, y por tanto, en definitiva, en la fiabilidad de dicha web y de su sistema de acceso online. En definitiva, si desaparece la copia registrada en esa web oficial y que permite el cotejo, no hay forma de saber si cualquier otro pretendido ejemplar en soporte electrónico o en papel del mismo archivo es auténtico e íntegro o no.

Y el hecho de que estos csv sean series alfanuméricas generadas de forma aleatoria no es algo que tenga que ver con el propio contenido del documento (a diferencia de lo que enseguida vamos a ver en relación con el hash), sino que es una forma de preservar la confidencialidad del repositorio documental de acceso necesariamente público en la web correspondiente. Para acceder a un determinado documento en la web es necesario introducir un determinado “metadato”, ese concreto csv, que sólo conoce la persona que tiene ya a la vista una pretendida copia del archivo correspondiente (porque figura trascrito en ella).

El Hash

La siguiente herramienta que se ha ideado para asegurar la integridad de los archivos informáticos es mucho más técnica: el hash o función resumen.

“Hash” es una palabra inglesa que significa algo así como picadillo. La función hash es un algoritmo matemático que, aplicado sobre un archivo o ítem digital cualquiera, da como resultado una determinada secuencia de longitud fija, de aproximadamente unos treinta caracteres alfanuméricos (letras y números). En realidad, esta secuencia es un número, que se suele expresar en numeración no decimal sino hexadecimal, es decir, empleando esos dieciséis dígitos que son los números del 0 al y las primeras seis letras del alfabeto latino (de la a a la f). Un ejemplo de hash (SHA-1) puede ser el siguiente: 8b9248a4e0b64bbccf82e7723a3734279bf9bbc4.

Este algoritmo tiene la maravillosa propiedad de que siempre que se aplica sobre el mismo archivo el hash resultante es el mismo, y basta con la alteración de un solo bit del archivo en cuestión para que el hash resultante sea completamente diferente. Además, la probabilidad de que dos archivos diferentes arrojen un mismo hash (lo que se conoce como “colisión de hashes”) es muy remota. Al respecto hay que tener en cuenta que el número de posibles entradas del algoritmo es infinito (cualquier cadena de dígitos, sea cual sea su extensión), mientras que su salida tiene un número finito de posibilidades, porque, al tener el hash un número fijo de dígitos, las posibles combinaciones de ceros y unos son muchísimas pero no infinitas. Por ello, por definición, es posible que dos entradas diferentes arrojen el mismo hash.

Ahora bien, otra importantísima propiedad del algoritmo es su carácter unidireccional, es decir, que no es reversible, o lo que es lo mismo, partiendo del hash no es posible reconstruir el archivo original.

Las consecuencias del Hash

Esta propiedad tiene dos consecuencias muy relevantes.

En primer lugar, que un hash por sí mismo no significa ni simboliza nada, no tiene “semántica”, no transmite información alguna ni la conserva, porque, como he indicado, partiendo del hash no se puede reconstruir el archivo original. De manera que el hash sólo sirve para garantizar que un determinado archivo no ha sido alterado.

Con más precisión, no evita la alteración, sino que permite detectarla, y por tanto, permite acreditar que no ha existido alteración. Si en un momento dado se calcula el hash de un determinado archivo y queda constancia confiable de este hash, en cualquier momento posterior se puede tener certeza de que cualquier pretendida nueva imagen o copia de ese mismo archivo que se presente se corresponde exactamente con el archivo original. Para ello basta con volver a calcular el hash del archivo que ahora se nos presenta: si este hash que calculamos ahora coincide con el hash que se obtuvo en su día del archivo original, es que éste no ha sido alterado, tiene exactamente su mismo contenido. Por tanto, la función hash no sirve para guardar y conservar una información (si el archivo original se ha perdido o destruido, de nada nos sirve disponer de su hash), ni para asegurar su procedencia (la función hash es anónima, cualquiera la puede aplicar sobre un archivo), pero sí para asegurar su integridad, que su contenido no ha sido alterado, siempre y cuando, por supuesto, tengamos certeza de cuál era el hash que correspondía al archivo original.

Así, para que la garantía simplemente tecnológica que proporciona la función hash sea realmente efectiva es necesario que alguien certifique cuál es el hash que se ha obtenido inicialmente de un determinado archivo. Sin esa certificación jurídicamente confiable, cualquier cotejo de hashes podrá ser matemáticamente muy seguro, pero jurídicamente resulta inane.

La segunda consecuencia de la unidireccionalidad o “asimetría computacional” de la función hash es la seguridad que proporciona frente a la pretensión de una colisión de hashes buscada de propósito.

Dado un determinado archivo, calcular su hash es una operación que un ordenador hace en un instante. Sin embargo, reconstruir el archivo original partiendo del hash es algo para lo que no existe ninguna fórmula o algoritmo. Es algo que sólo se podría hacer por “fuerza bruta computacional”, es decir, probando una a una todas las infinitas combinaciones de bits que como entrada generan un determinado hash.

Esto es absolutamente fundamental para la seguridad de esta herramienta, porque es lo que evita o dificulta extraordinariamente la generación premeditada de una colisión de hashes. Así, la “unicidad” de la referencia o metadato que supone un hash estaría en peligro y con ello toda la seguridad que proporciona esta tecnología si alguien pudiera generar premeditadamente un archivo cuyo hash fuera exactamente coincidente con el de otro archivo diferente (pero lo suficientemente parecido como para que hubiera riesgo de confusión entre los dos archivos). Pues bien, –y esto es lo importante y donde incide la indicada asimetría computacional– una cosa es que la colisión sea teóricamente posible y otra que se pueda buscar de propósito para un determinado archivo, que es lo que permitiría la manipulación maliciosa de una información registrada o certificada sobre la base de esta herramienta del hash.

La dificultad en términos computacionales de una maniobra como ésta tendría una dimensión astronómica, nos obligaría a emplear un esfuerzo de computación en un tiempo no polinomial sino exponencial.

Para comprender en su totalidad este texto, te invito a leer las dos edciones anteriores de la serie ‘Explorando la frontera digital’: De Grouchy al smartphone (Explorando la frontera digital I) y Sobre electrones, bits y códigos (Explorando la frontera digital II).

Digitalizacion juridica

Sobre electrones, bits y códigos (Explorando la frontera digital II)

Cuando los juristas nos internamos en el medio digital con una visión específicamente jurídica -es decir, no cómo simples usuarios de una tecnología-, nuestro primer obstáculo es simplemente conceptual, por no decir terminológico. Empezamos a emplear un poco al tuntún una serie de palabras –informático, digital, electrónico, telemático, archivo, fichero– cuyo significado no hemos terminado de precisar.

Así que a la hora de plantear la posibilidad de un “documento electrónico” o de un “contrato electrónico” de significado jurídico equivalente o al menos análogo a lo que los juristas hemos venido entendiendo secularmente como “documento” o como “contrato”, y aun más, la posibilidad de que existan “activos digitales” susceptibles de apropiación exclusiva, como pretenden ser las criptomonedas o los tokens, tenemos que comenzar necesariamente con algunas precisiones conceptuales para ordenar un poco nuestras ideas.

Lo primero que hemos de tener claro es que estamos hablando de “información” o de “mensajes”, conceptos estos en los que siempre podemos distinguir dos elementos: la información propiamente dicha, como significado o contenido ideal o cognitivo (algo que pensamos), y un medio o soporte material o sensible –un signo o señal- mediante el que representamos ese significado para que pueda trasmitirse de una mente humana a otra (o de un sistema o dispositivo a otro sistema o dispositivo capaz de percepción) y en su caso conservarse fuera de una memoria humana.

De la electrónica a lo digital

Pues bien, sin entrar en mayores disquisiciones, la informática es una tecnología que hemos desarrollado para manejar la información (organizarla, conservarla y transmitirla) de manera mecanizada o automatizada. Esto es posible gracias a unas prodigiosas máquinas que, primero, funcionan con energía eléctrica –es decir, son aparatos eléctricos-, y segundo, operan mediante la circulación de corrientes de electrones por microcircuitos -lo que se entiende por “electrónica”-. En definitiva, se trata de una tecnología de la información que emplea unas específicas “señales” o “signos” resultantes de la conducción y el control del flujo microscópico de electrones u otras partículas cargadas eléctricamente.

Un concepto distinto, pero relacionado con éste de la electrónica, es el concepto de “digital”. Con ello no nos referimos a una determinada tecnología, a unos determinados tipos de aparatos, sino más bien a una cuestión de tipo lógico.

Digital es un término derivado de “dígito”, que a su vez viene de dedo, pero lo que en realidad quiere decir es numérico, porque los seres humanos aprendimos a contar con el auxilio de nuestros dedos (precisamente, nuestro sistema numérico es de base decimal porque tenemos diez dedos entre las dos manos). Pues bien, digitalizar o mejor “numerizar” no es más que cifrar o representar una información cualquiera utilizando dígitos, es decir los diez números básicos que se representan mediante los diez guarismos del 0 al 9; y siendo más precisos, sólo mediante dos de estos dígitos: el 0 y el 1 (un bit es un espacio que puede estar ocupado por uno de estos dos símbolos), lo que se conoce como el código digital binario. Algo que se encuentra ya nada menos que en el I Ching de la antigua China, o sin ir tan lejos, en algún trabajo del filósofo alemán Leibniz, allá por el final del siglo XVII. Y aunque este autor –como recordé en un post anterior– llegó a concebir ya la idea de una máquina que almacenaba y manejaba información codificada en código digital binario, lo cierto es que los ejercicios de cifrado o codificación y aritmética binaria que el bueno de Leibniz llevaba a cabo en su tiempo no requerían de otro instrumental técnico que un lienzo de papel, una pluma de ave y un poco de tinta. Porque, como digo, la digitalización, en sentido estricto, no es una operación tecnológica sino meramente lógica.

Del dígito al código

Así, “digitalizar” un texto como el que estoy ahora escribiendo supone convertir cada uno de sus caracteres alfabéticos, signos de puntuación y el espacio en blanco en un concreto número binario de conformidad con un determinado código (algo parecido a la conversión de cada letra en una determinada secuencia de rayas y puntos en el código Morse).

En concreto, mediante el código ASCII (American Standard for Information Interchange), que es el más empleado por nuestros ordenadores, cada una de las letras mayúsculas y minúsculas, cada una de las cifras del 0 al 9 y determinados signos de puntuación y símbolos de comandos se representan mediante una determinada cadena de ocho bits, es decir, de lo que se conoce como un byte. Por ejemplo, la letra “a” se sustituye o representa por la secuencia binaria 01100001.

Es importante darse cuenta de que una codificación digital de este tipo es algo completamente convencional. Así, podríamos haber acordado que esa misma secuencia de ceros y unos representase la letra “b”. En cualquier caso, lo que interesa retener de esto es que para utilizar series de ceros y unos como instrumentos de conservación y transmisión de la información siempre vamos a necesitar no sólo algo capaz de “registrar” esos dos símbolos o señales, sino también un “código” mediante el que atribuimos a determinadas combinaciones de ceros y unos un concreto significado o una correspondencia con un símbolo de otro lenguaje, por ejemplo una letra del alfabeto latino.

Conectando lo electrónico y lo digital

¿Y qué tiene que ver lo electrónico con lo digital? Pues muy sencillo: que cualquier interruptor de un circuito por el que pasa la corriente eléctrica puede estar en una de estas dos posiciones: abierto o cerrado, encendido o apagado, on/off. De esta manera, si asignamos el valor 0 a una de esas dos posibles posiciones y el valor 1 a la otra –lo que también es otra convención de codificación a un nivel más básico-, podemos “registrar” en un circuito electrónico cualquier información que previamente hayamos “digitalizado”, es decir, convertido en una determinada sucesión de ceros y unos.

Han existido aparatos y sistemas electrónicos anteriores y ajenos a la moderna codificación digital electrónica y que en los últimos tiempos se han reconvertido a la tecnología digital (los reproductores de sonido, la radio, la televisión, la telefonía), mientras que la informática, las “computadoras”, lo que en España llamamos ordenadores, es decir, los aparatos que hemos inventado para el tratamiento automático de la información, constituyen una técnica que desde su origen ha estado ligada a la digitalización de la información.

Y lo que distingue la electrónica digital de la “analógica” es que la primera codifica una información reducida a esos dos únicos estados o posiciones lógicas que son el 0 y el 1 mediante dos niveles claramente diferenciados o “discretos” de voltaje o tensión eléctrica, mientras que la segunda codifica una infinidad de estados de información mediante variaciones “continuas” o graduales de tensión. Precisamente por ello, la transmisión y reproducción digital de una señal o información, en cuanto que dicha señal o información se ha simplificado o esquematizado previamente, es mucho más precisa y nítida, no lleva consigo ese posible deterioro o distorsión de la señal que caracteriza a la transmisión y reproducción analógica.

Analogías con lo jurídico

Esta diferencia técnica en cuanto a fidelidad o exactitud de la representación y reproducción de una información puede tener una extraordinaria importancia jurídica. Es el fundamento último de la identidad de cualquier pieza o unidad de información que manejamos en este peculiar medio, y también del concepto de documento al que llegamos en este ámbito, que es mucho más abstracto o espiritual que nuestro concepto tradicional de documento, bastante más materialista. En el mundo de la información sobre papel, la identificación de una unidad informativa –eso que entendemos como un “documento”, como por ejemplo, una letra de cambio o la escritura pública de compraventa de un inmueble- se basa en la materialidad individual de un concreto trozo de papel en el que se ha escrito algo con tinta. En el mundo de la información digitalizada, la identificación es puramente lógica: una pieza de información es una concreta cadena de ceros y unos cualquiera que sea el soporte material o físico en que esté registrada.

Sobre esto tendremos que volver. De momento es suficiente con que tengamos claro que, si el lenguaje natural humano siempre implica un primer nivel de codificación -la atribución de unos determinados significados a unos determinados sonidos o combinaciones de sonidos producidos mediante la “articulación” de la voz humana-, y aun un segundo nivel de codificación si se trata del lenguaje escrito –la vinculación entre unos sonidos y unas determinadas grafías, las letras-, la técnica digital-electrónica propia de la informática supone la interposición de una mediación mucho más intensa.

Por una parte, la dependencia de una máquina. Lo que se representa mediante escritura natural en un papel, en las hojas de un libro, en un documento del tipo tradicional, se puede conocer por todo aquel que disponga del sentido de la vista y sepa leer (y conozca el idioma natural empleado en ese escrito). Y, como mucho, si es de noche, necesitaremos una lámpara o una vela. Por eso se suele decir que un rasgo del documento es su comprensibilidad directa.

Sin embargo, para recuperar la información gravada en un pendrive o en un CD necesitamos ineludiblemente una máquina. Sin un artefacto producto de una ingeniería muy sofisticada capaz de “leer” este tipo de dispositivo y de transformar las señales que contiene en sonidos o en imágenes o grafismos alfanuméricos sobre una pantalla que nosotros podamos ver, el CD no es más que una lámina de plástico con unos sutiles surcos prácticamente imperceptibles.

Siendo más preciso, los “soportes” físicos de la información digitalizada o informatizada vienen siendo de dos tipos: “magnéticos” u “ópticos”. En los soportes de tipo “magnético” (discos duros, cintas digitales) la información se registra en un material formado por partículas sensibles al magnetismo eléctrico –el óxido de hierro-, de manera que estas partículas se orientan en determinadas posiciones cuando se aplica sobre las mismas un campo magnético mediante un electroimán, conservando esa posición cuando cesa dicha aplicación. Mediante esas posiciones se representan los datos codificados en forma de bits.

La lectura de lo registrado en este tipo de soporte se realiza detectando esas posiciones de las partículas aplicando de nuevo un electroimán. Por su parte, la tecnología “óptica” (propia de los CDs y DVDs) no emplea imanes, sino rayos láser para registrar y leer las señales. En concreto, sobre una lámina, normalmente de aluminio, que cubre la superficie plana de un disco se graban mediante un láser unos surcos microscópicos. La lectura se realiza pasando un rayo láser sobre el disco. Los surcos en la superficie modifican el comportamiento del haz de láser detectándose de esta manera la información que contiene el disco.

Se necesita un sistema de interpretación

Ahora bien, la lectura de uno de estos soportes no requiere sólo de una máquina capaz de percibir estas señales ópticas o magnéticas que representan a su vez ceros y unos, sino que además debe desarrollar esa función u operación lógica consistente en reconvertir lo codificado como una secuencia de dígitos binarios en sonido, imagen o un texto en lenguaje natural escrito en caracteres de –por ejemplo- el alfabeto latino visualizable sobre una pantalla. Sin una aplicación capaz de realizar esa operación lógica, la información digital sigue siendo para nosotros completamente opaca, carente de todo significado.

Además, tanto las máquinas como los programas que éstas aplican están sujetos a un vertiginoso proceso de obsolescencia técnica, de manera que no basta con que en el momento de incorporación de una determinada información a un soporte digital se disponga de la máquina y del programa que permite su lectura, sino que una máquina y una aplicación capaz de leer ese mismo tipo de soporte debe estar disponible en ese momento posterior en que interese recuperar la información así conservada. Piénsese en lo difícil que puede ser encontrar ahora un magnetofón capaz de reproducir esas cintas de sonido o casetes que todavía guardamos en algún cajón.

Y por último y no menos importante, esta máquina en la que estoy tecleando, capaz de hacer todo esto tan maravilloso, sólo funciona si recibe suministro de energía eléctrica. Si se corta la luz y nos quedamos sin corriente, deviene absolutamente inútil. El apagón eléctrico equivale a la indisponibilidad absoluta de toda la información registrada mediante este tipo de código y soporte.

Antes de que esto suceda, hago clic en guardar –para que pase de la memoria operativa o RAM al disco duro- y envío este archivo de texto como adjunto a un correo electrónico a la editora del blog. En el próximo envío daremos un paso adelante y nos introduciremos en la cuestión –de relevante significado jurídico– de cómo conseguir autenticidad e integridad en este peculiar mundo de la información digitalizada.

¿Retrocede la Libertad de Empresa?

Los avances en la libertad de empresa, propiciados por la reforma laboral de 2012 mediante la recuperación de las facultades empresariales de ordenación de las actividades productivas y de las relaciones laborales, han estado durante todos estos años sujetos a los avatares de una doctrina judicial en gran parte reticente a cualquier alejamiento, por mínimo que fuese, de los tradicionales esquemas protectores del trabajo, centrados en la limitación de aquellas facultades y en la rigidez del marco normativo laboral. Los principios de la legislación franquista, basada en la represión de las libertades colectivas, en el intervencionismo administrativo y en la protección paternalista de los derechos laborales individuales, limitando drásticamente las facultades empresariales, se han resistido a morir, y la consagración de los derechos colectivos (libertad sindical, derecho de huelga, negociación colectiva) ha convivido con una regulación del contrato individual de trabajo inspirada en dichos principios.

Algo se ha avanzado, sin embargo. Trabajosamente, pero sin pausa, las exigencias de la libertad de empresa en una economía de mercado, que reconoce la Constitución en su artículo 38, han estado cada vez más presentes en las relaciones laborales, avanzando hacia un nuevo equilibrio entre la tutela de los derechos laborales y las facultades organizativas y directivas de la empresa. Uno de los puntos fundamentales de esta evolución doctrinal y judicial, ha sido el relativo a las decisiones empresariales acerca del ajuste del volumen de empleo en la empresa. En la normativa franquista, mantenida durante largo tiempo en la nueva regulación constitucional de las relaciones laborales (aquello del “atado y bien atado” no estaba tan carente de fundamento), la libertad de empresa se garantizaba a la hora de entrar en el mercado de trabajo pero no a la hora de “salir” del mismo, precisando los ajustes de plantilla de una autorización administrativa. Frente a ello, la reforma laboral intentó garantizar la libertad de decisión empresarial también a la hora de abandonar o reducir la producción, con la consiguiente reducción de la plantilla. Se suprimió, por ello, la autorización administrativa para los despidos colectivos, dejando la decisión al respecto (si bien con respeto de los importantes condicionamientos procedimentales establecidos) al empresario. Ahora bien, la decisión del empresario quedaba sujeta al control judicial a posteriori, que se ejercía no solo en relación con los aspectos indemnizatorios y procedimentales sino también sobre el fondo del asunto.

Aquí estaba la verdadera prueba de fuego del alcance de la reforma y del respeto por la misma de la libertad de empresa. La doctrina judicial, a la hora de controlar la causa de los despidos colectivos, fue evolucionando en un sentido cada vez más sensible a las exigencias de la libertad de empresa, tratando de evitar, sobre todo, que el juez se erigiese en un “sustituto” del empresario, decidiendo por el mismo acerca de los parámetros fundamentales de la empresa.

A esta evolución, ciertamente, no ayudaron mucho algunas intervenciones normativas posteriores del propio gobierno de la reforma (que parecía, por momentos, temeroso de ser acusado de abandonar el amplio consenso socialdemócrata vigente en Europa) ni, sobre todo, la Sentencia del Tribunal Constitucional que avaló la constitucionalidad de la reforma. En esta sentencia (8/2015, de 22 de enero), si el Tribunal sostiene, acertadamente, que la norma suprema permite políticas legislativas diferenciadas y no impone por tanto un preciso modelo normativo para la ordenación de las relaciones laborales (cerrando el paso a los tan habituales intentos de pretender que el aval constitucional ampara solo los propios planteamientos políticos), lo que debería haber bastado para afirmar la constitucionalidad de la reforma, añade, sin embargo, innecesariamente, que con la reforma, en realidad, apenas cambiaba nada y que el legislador se habría limitado a introducir mayor precisión en la regulación laboral, en pro de la seguridad jurídica y de la facilitación de la labor interpretativa.

Ya sostuve en su momento que esta sentencia era un torpedo en la línea de flotación de la reforma cuya constitucionalidad avalaba, y que podía provocar una cierta involución interpretativa judicial que provocara la vuelta a los viejos esquemas interpretativos mortificadores de la libertad de empresa.

Pues bien, los temores se confirman. La reciente Sentencia del Tribunal Supremo de 18 de septiembre de 2018 (841/2018), apoyándose expresamente en la del Tribunal Constitucional citada, sostiene que, en contra de lo que pretendía, según su Exposición de Motivos, la ley de la reforma laboral (que el juez solo pudiese comprobar la concurrencia de la causa alegada por el empresario para el despido), “no puede dudarse de la persistencia de un ámbito de control judicial más allá de la búsqueda de concurrencia de la causa como hecho”. No solo cabe un control judicial de la causa de despido alegada, sino que “es necesario, además, un control de razonabilidad pleno y efectivo sobre la medida extintiva comprobando si las causas alegadas y acreditadas, además de reales, tienen entidad suficiente como para justificar la decisión extintiva y también, si la medida es plausible o razonable en términos de gestión empresarial”. La decisión empresarial ha de ser “adecuada a las circunstancias causales concurrentes” y por tanto “proporcional”, debiendo excluirse “en todo caso, como carentes de “razonabilidad” y por ello ilícitas, aquellas decisiones empresariales, extintivas o modificativas, que ofrezcan patente desproporción entre el objetivo legalmente fijado y los sacrificios impuestos a los trabajadores”.

Nuevamente vemos aquí al juez vistiendo los ropajes del empresario y valorando sus decisiones desde el punto de vista de la “gestión empresarial”. ¿De verdad se piensa que el juez tiene los instrumentos conceptuales necesarios para valorar si una medida empresarial (repárese en que no solo extintiva sino también modificativa) es plausible o razonable desde el punto de vista de la gestión empresarial? Recordando la doctrina administrativa que se sentó durante el franquismo para la autorización de los despidos colectivos, se dice que las causas del despido han de ser “reales, actuales, proporcionales”, y se concluye con una afirmación inquietante: “La empresa no tiene un poder absoluto en orden a configurar el tamaño de su plantilla, sino que ha de actuar con respeto a todos los derechos e intereses en presencia”. Si la empresa hace surgir “por su sola voluntad, la causa organizativa invocada, sin que el hecho que la motiva (venta de parte de la maquinaria) aparezca justificado por la necesidad”, no pueden aceptarse las medidas extintivas de contratos pretendidas. La reducción de la capacidad productora de la empresa por la venta de una parte de su infraestructura productiva, no puede pues admitirse como causa de despido. Repárese en que se exige que se acredite la “necesidad” de la medida, lo que vuelve a incidir en la restricción de las decisiones empresariales acerca del volumen de la producción y de la plantilla.

De consolidarse esta doctrina el retroceso en la libertad de empresa sería muy significativo. Para eso, casi mejor volver a la autorización administrativa que, al menos, ofrecería una mayor seguridad jurídica y evitaría litigiosidad. Aunque también enviaría un mensaje inequívoco a los mercados, desgraciadamente poco favorable para la inversión y para el crecimiento económico.

De Grouchy al smartphone (Explorando la frontera digital I)

En la jornada del 18 de junio del año 1815 en una pradera ondulada próxima a la localidad belga de Waterloo las tropas napoleónicas sufrieron su derrota definitiva. Como se suele decir, en ese día estaba en juego el destino de Europa y del mundo. Si la victoria hubiera caído del lado francés, la enésima alianza de las potencias enemigas primero de la Revolución y luego de Bonaparte se habría descompuesto, el Congreso de Viena no habría reanudado sus sesiones ni repartido Europa como lo hizo, los famosos cien días habrían sido bastantes más y el legitimismo monárquico no habría conseguido una prórroga de vigencia que en algunos estados llegó a durar casi un siglo. Y aunque la historia la escriben los vencedores –que en esa ocasión, como casi siempre, lo fueron los ingleses-, y a toro pasado es fácil ver todo lo sucedido como inevitable, lo cierto es que a media tarde el resultado estaba completamente en el aire. Se ha hablado mucho de que la lluvia de los días precedentes había ablandado el terreno, evitando el letal rebote de los proyectiles de la superior artillería francesa, de las astucias de Lord Wellington ocultando sus cuadros de infantería, de la tenaz resistencia de los británicos a las sucesivas acometidas de la caballería pesada enemiga, o de la providencial llegada al campo de batalla in extremis de los prusianos de Blücher, pero lo realmente determinante del resultado final fue un garrafal defecto de comunicación entre el grueso del ejército francés y el ala que bajo el mando del mariscal Grouchy se había separado dos días antes para perseguir a los prusianos derrotados en Ligny.

El caso es que aproximadamente un tercio del ejército francés se pasó todo el día 18 perdido a apenas unos kilómetros de distancia de donde se estaba desarrollando la gran batalla. Simplemente porque su obtuso comandante se limitó a seguir fielmente unas instrucciones desactualizadas en vez de acudir a donde se le necesitaba –al ruido de los cañones- y donde su irrupción habría desequilibrado claramente la balanza.

En nuestros días, semejante episodio nos resulta inconcebible. Hasta el más humilde fantassin francés llevaría encima un teléfono móvil, con su aplicación googlemaps, y Napoleón habría whatsappeado sus nuevas órdenes a Grouchy para que éste apareciese en el campo de batalla en el momento oportuno.

Pero, en realidad, lo verdaderamente inconcebible es esto nuestro, todo esto que ahora nos permiten hacer las nuevas tecnologías de la comunicación e información y a lo que parece que estamos ya tan acostumbrados que ni nos sorprende. El problema del mariscal Grouchy es el mismo que han tenido todos los comandantes militares desde la Guerra de Troya o las batallas bíblicas hasta la Primera Guerra Mundial. Sólo muy entrado ya el siglo XX, con la invención de la radio, y en la minúscula fracción de la historia de la humanidad que ha discurrido desde entonces, la forma de comunicarnos los seres humanos ha cambiado radicalmente. Y también sólo desde la última década del pasado siglo –no hace todavía ni treinta años- se ha generalizado el uso de la informática por el conjunto de la sociedad. Aún menos tiempo hace del boom de Internet y la telefonía sin hilos, y menos todavía de la combinación de ambos instrumentos, algo que hoy nuestros hijos dan por supuesto, pero que era simplemente inimaginable, que ni el más visionario escritor de ciencia ficción había llegado siquiera a barruntar. Y ahora mismo no paran de hablarnos de big data, de robótica, de inteligencia artificial, de algoritmos, de criptomonedas y de blockchain.

Demasiados cambios en tan poquísimo tiempo, en menos de una generación. Unos cambios que, como no puede ser de otra forma, afectan de lleno al mundo del derecho, en la medida en que el derecho es básicamente información, un tipo determinado de información. No sólo las normas o las resoluciones judiciales y administrativas son información, sino que también lo son la contabilidad de las empresas, los contratos y acuerdos negociales y todos los derechos. Eso que los juristas llamamos un derecho subjetivo no es más que una idea, una cosa pensada, que para ser efectiva –para reflejarse de alguna manera en el mundo de la realidad física- debe salir de mi mente para ser compartida y reconocida por una pluralidad de personas. Reconocimiento éste que suele requerir alguna forma de documentación y de registro. Y si es así, todo aquello que afecta a la forma de generar, tratar y registrar la información no es un mero accidente para el mundo o la realidad jurídica, sino algo que afecta de lleno a su mismo núcleo o sustancia.

Y sin embargo, todavía hoy la mayor parte de los juristas en ejercicio en nuestro país e incluso de los recientes egresados de nuestras facultades de Derecho hemos sido formados al margen completamente de la aludida revolución en las tecnologías de la comunicación e información, como si fuera algo ajeno a nuestro ámbito de competencia.

Y las cosas no pueden seguir así. La relación entre el derecho y las nuevas tecnologías no puede continuar siendo el reducto de unos pocos iniciados y especialistas. Se trata de una cuestión transversal, que afecta a todas las ramas del derecho y a casi todos los ámbitos de la actividad profesional del jurista. Y en particular, hace tiempo que incide no sólo en la periferia, sino en el mismo núcleo de la cultura jurídica, en esas nociones básicas que presupone todo discurso jurídico, como pueden ser la identidad, la imputación de las acciones y declaraciones, el consentimiento negocial y hasta el propio concepto de persona. Sin que podamos dejar de lado la incidencia de este asunto en el ámbito jurídico-público, donde las mismas nociones más elementales de soberanía o de jurisdicción sobre una población y un territorio resultan desbordadas por fenómenos que se desarrollan en un espacio etéreo que escapa a toda territorialidad.

Precisamente por ello, la gran dificultad y el gran reto que nos plantea esta materia no es tanto –aunque también- el conocimiento y la comprensión de una tecnología muy sofisticada y que se nos presenta envuelta en una jerga anglosajona bastante opaca, como la necesidad de revisar y replantearnos algunas de las nociones más básicas de nuestra formación como juristas. Lo que a su vez requiere un esfuerzo de abstracción, de autoanálisis y casi de recuperación de la inocencia intelectual (por ejemplo, ¿qué significan realmente actos que hacemos de forma tan habitual que casi no reparamos en ellos como firmar un documento?).

¿Y a qué viene ahora todo esto? Pues a que, buscando un tema en el ámbito de mis últimas preocupaciones que pudiera resultar atractivo para un post en este blog, me estaba planteando un contraste entre el concepto de token (o mejor, de crypto-token) y el de documento electrónico, en la medida en que se está relacionando al primero con la tradicional teoría de los títulos valores y muchos tienden a identificar los dos conceptos aludidos. Sin embargo, a mi juicio, una aproximación jurídica adecuada al fenómeno de la “tokenización” requiere una clara distinción de esas dos nociones. Pero esta distinción a su vez presupone que tenemos claro el concepto de documento electrónico, que es cualquier cosa menos evidente, por cuanto presenta una diferencia muy notable respecto de nuestro concepto tradicional de documento de papel (por cuanto la entidad de éste está indusolublemente unidad a su soporte material, lo que no sucede con aquél, que tiene una entidad puramente lógica e independiente de cualquier soporte). Esto nos lleva necesariamente a hablar de la función de hashing como herramienta de identificación lógica unívoca de un determinado archivo digital. Y a su vez, comprender este tipo de identificación presupone el entendimiento del propio concepto previo y más general de digitalización.

En definitiva, cuando se pretende profundizar un poco en cualquiera de las acuciantes cuestiones que para los juristas suscita la sociedad digital que inexorablemente se va imponiendo, nos encontramos con que muchos de los conceptos o nociones más básicos están todavía por construir y que la propia terminología que empleamos es cualquier cosa menos clara. Y sobre todo, que tenemos mucha tarea de reflexión pendiente.

Estando así las cosas, me ha parecido mejor aparcar de momento el tema de los tokens, para dedicar algunos post a compartir mis esfuerzos de esclarecimiento de algunos conceptos más generales que se mueven en esa problemática frontera o tierra de nadie entre lo tecnológico y lo jurídico y que me parece necesario conocer antes de introducirse en cuestiones más complejas (así, la distinción entre lo digital y lo electrónico, el concepto de dato, de archivo informático, de documento electrónico, la criptografía asimétrica como instrumento de imputación, el hash, los algoritmos…, y ya veremos si terminamos enredados en las leyes de la robótica de Asimov).

A este pequeño proyecto lo llamaré “Explorando la frontera digital” y espero que les resulte de algún interés.

Pronto recibirán nuevas señales.

Las nuevas tecnologías y los derechos laborales

La ya generalizada utilización de las nuevas tecnologías de la información y de la comunicación en el mundo laboral ha hecho surgir nuevos problemas en el ámbito de las relaciones laborales, sobre todo derivados del juego que los derechos fundamentales de los trabajadores (derecho a la intimidad, al secreto de las comunicaciones) hayan de tener en los procedimientos empresariales establecidos para la vigilancia y control del uso de los medios informáticos puestos a disposición del trabajador (ordenadores, teléfonos celulares, tabletas), así como en supuestos de utilización de medios de vídeovigilancia aunque no estén relacionados directamente con la actividad laboral (medios que, establecidos para garantizar la seguridad de las instalaciones o para evitar hurtos de los productos comercializados por la misma, pueden sin embargo captar casualmente incumplimientos laborales  de los trabajadores).

Esta nueva realidad pone en cuestión, con mucha más intensidad que antes, la vigencia de los derechos fundamentales de los trabajadores en el seno de las empresas y en el desarrollo de sus actividades productivas. Derechos que les corresponden como ciudadanos (derecho a la intimidad, al secreto de las comunicaciones, al respeto de su dignidad) y no específicamente como trabajadores (como es el caso, sobre todo, de la libertad sindical y de sus diversas manifestaciones). Y hace reverdecer el debate, ya antiguo, sobre la vigencia de los derechos fundamentales en el seno de las organizaciones productivas. En la década de los setenta del pasado siglo, en el apogeo de ese debate, se acuñó una máxima que hizo fortuna, conforme a la cual la Constitución no puede pararse a la puerta de las fábricas, sino que debe garantizarse que los trabajadores conservan íntegros sus derechos fundamentales de ciudadanía aunque se integren en una organización empresarial que, lógicamente, tiene también sus exigencias de disciplina y de control.

La mayor parte de los ordenamientos ha dado hasta ahora una respuesta insuficiente, o no ha dado, como en el caso español, respuesta en absoluto a estos nuevos problemas. El uso de las redes corporativas de la empresa para comunicaciones sindicales, por ejemplo, o la utilización para fines particulares de los medios tecnológicos facilitados por la empresa (correo electrónico, internet, teléfono) y sus límites, no encuentran respuesta en nuestros textos legales. Piénsese que la norma básica ordenadora de las relaciones laborales en España, el Estatuto de los Trabajadores, sigue regulando como medio principal de comunicación sindical en la empresa, junto a las asambleas de trabajadores, ¡el tablón de anuncios! Tampoco la negociación colectiva, aunque más atenta a estas cuestiones y con ejemplos de regulación detallada de las mismas (sobre todo en convenios de grandes empresas), ha dado respuesta suficiente a la nueva problemática. Ha sido sobre todo la doctrina judicial la que, si bien de forma casuística, ha ido sentando una doctrina acerca de la compatibilización de los derechos de los trabajadores con las exigencias empresariales de ordenación de las actividades productivas y de control y vigilancia tanto del uso de los medios empresariales puestos a disposición de los trabajadores, como del cumplimiento de las instrucciones de la empresa.

¿Cuáles son los puntos fundamentales de esa doctrina (bien sintetizada en la reciente Sentencia del Tribunal Supremo de 8 de febrero de 2018, que recoge también las construcciones al respecto del Tribunal Constitucional y comprueba su armonía, en este punto, con la jurisprudencia del TEDH, en particular en su reciente sentencia Barbulescu, de 5 de septiembre de 2017)? Ante todo, como principio general, hay que tener en cuenta que la utilización del ordenador en la empresa, aunque esté personalizada (incluso aunque se entregue un ordenador portátil a cada trabajador) queda dentro del ámbito del poder de vigilancia del empresario, que puede ejercer, en relación con el uso del ordenador, sus facultades de vigilancia y control de la actividad laboral. Las facultades empresariales, legalmente reconocidas y con fundamento constitucional en el artículo 38 CE, pueden pues ejercerse en estos ámbitos, si bien con respeto de la dignidad de los trabajadores. Ello implica el derecho empresarial a fijar las condiciones de uso de los medios informáticos facilitados por la empresa y a vigilar que esas condiciones se respetan por los trabajadores.

Los problemas más delicados surgen cuando se permite el uso para fines particulares de tales medios. O cuando simplemente se tolera un uso “razonable” de los mismos con fines particulares. En estos casos, las medidas de vigilancia y de control, que siempre han de ser razonables, han de tener especial cuidado de salvaguardar la esfera personal del trabajador y la intimidad de sus comunicaciones. Habrá que tener muy en cuenta las circunstancias concretas de cada caso y atender a las “expectativas razonables” que el trabajador pueda tener, en función de esas circunstancias, de encontrarse “al resguardo de la observación o del escrutinio ajeno”. Y habrá que distinguir si se trata de un control rutinario o general o si, por el contrario, viene determinado por indicios o sospechas concretas de actuación  desleal o contraria a la disciplina laboral o a los intereses empresariales del trabajador.

Por regla general, los controles empresariales han de superar un triple juicio de idoneidad, de necesidad y de proporcionalidad. La medida de control ha der idónea para la consecución de los fines legítimos perseguidos, ha de ser necesaria, en el sentido de que no exista otra menos intrusiva en la esfera del trabajador y proporcional a las circunstancias que la motivan. Los problemas se simplifican bastante cuando existe un protocolo empresarial (negociado con la representación laboral o establecido unilateralmente por la empresa), regulador del uso de los medios informáticos y de los instrumentos susceptibles de emplearse para controlar dicho uso. Aun así, se pone en cuestión, en estos casos, si, en atención a la realidad social imperante, una medida empresarial de prohibición absoluta de utilización con fines particulares puede considerarse proporcionada con independencia de las circunstancias que la motivan.

Las medidas empresariales de vigilancia y control que no respeten los principios indicados, pueden provocar que las pruebas de los incumplimientos laborales verificados a través de ellas, se consideren pruebas ilícitamente obtenidas y se consideren por tanto nulas. La doctrina judicial recurre con frecuencia a esta doctrina de los “frutos del árbol empozoñado” para anular las pruebas obtenidas con violación de derechos fundamentales. Ahora bien, el TS, en la sentencia que hemos citado, si bien mantiene la nulidad de las pruebas ilícitamente obtenidas avala la figura del “hallazgo casual”, que legitima posteriores medidas de comprobación. Ese hallazgo casual invalida la aplicación de la doctrina de los frutos del árbol envenenado, máxime cuando las actividades posteriores de comprobación son selectivas y proporcionadas. Ahora bien, el hallazgo casual tropieza con más dificultades cuando el incumplimiento laboral se detecta a través de cámaras de videovigilancia cuyo uso a efectos de control laboral no estaba fijado o no se había comunicado a los trabajadores.  Estos son supuestos delicados; si bien puede sostenerse que los trabajadores tienen derecho a conocer la instalación de cámaras de grabación y su posible uso a efectos de control de las actividades laborales, existen casos (cámaras de seguridad con fines no laborales, que captan un hurto de mercancías o de efectivo por parte de trabajadores) en los que un hipergarantismo puede llegar a configurar una especie de “derecho a la intimidad para delinquir” que no parece que deba tener amparo constitucional.

Sobre el origen intelectual de blockchain (III). Más precursores próximos

Terminé el post anterior ocupándome de la figura de David Chaum y de cómo su proyecto DigiCash no suponía una verdadera ruptura con el dinero de curso legal tradicional. El salto disruptivo al respecto, aunque fuera en un plano todavía meramente teórico o especulativo, es atribuible a los siguientes dos personajes de esta historia.

El primero de ellos colaboró precisamente con David Chaum en la malograda empresa DigiCash. Se trata de un estadounidense con apellido de origen húngaro: Nick Szabo. Personaje polifacético: graduado en 1989 en ciencias de computación por la Universidad de Washington, criptógrafo y jurista. Además de trabajar en DigiCash, fue el diseñador de Bit Gold, un proyecto de divisa digital antecesora de Bitcoin y blockchain. De hecho, muchos han afirmado que la identidad real tras el seudónimo “Satoshi Nakamoto” –el creador de Bitcoin- es Szabo, algo que él siempre ha negado. Así, el escritor y periodista financiero británico Dominic Frisby afirma: “I’ve concluded there is only one person in the whole world that has the sheer breadth but also the specificity of knowledge and it is this chap…”. Incluso una subunidad de la criptomoneda Ether (la moneda de la plataforma Ethereum) ha sido bautizada con su nombre (el “szabo”).

La primera gran aportación de Szabo a nuestro tema fue un artículo publicado en una revista futurista y transhumanista californiana denominada Extropy en el año 1996 con el título “Smart contracts: building blocks for digital free markets”. En este visionario artículo Szabo, como informático, criptógrafo y a la vez jurista, se plantea cómo la combinación de Internet con los modernos protocolos criptográficos (criptografía asimétrica o de doble clave, sistemas de firma ciega como los ideados por Chaum, o de firma múltiple, protocolos de mixing) podría revolucionar el derecho tradicional de contratos, permitiendo que esa pieza jurídica básica que es el contrato y que es la base de toda nuestra economía de mercado pudiera estar a la altura de las exigencias del comercio on line. En este artículo se crea el concepto y la terminología –ahora mismo en boca de todos- “smart contract” o contrato inteligente: un programa informático mediante el cual se ejecutan de forma automática unas prestaciones que no sólo son convenidas sino además programadas, lo que da lugar a un contrato que se autoejecuta con la ayuda de la tecnología informática. Algo ideal precisamente para una contratación no sólo entre ausentes sino entre desconocidos, que no tienen ningún motivo para confiar entre sí. También encontramos por primera vez el término “smart property” o propiedad inteligente, que es el resultado de integrar un contrato inteligente en un objeto físico (un automóvil, la cerradura de una vivienda), de manera que la disposibilidad física de ese objeto también sea programable según los términos de un determinado acuerdo.

Este primer artículo sobre los smart contracts fue revisado y ampliado en una publicación del año 1997 con el título “Formalizing and securing relationships on public networks”. En este texto encontramos ya una alusión a la idea de una confianza distribuida, es decir, a cómo la intervención de varios agentes en el control y registro de una transacción es una garantía de seguridad y de protección contra el fraude.

Esta idea se desarrolla y empieza a ganar entidad en publicaciones posteriores como “Secure Property Titles with Owner Authority” del año 1998, un artículo en el que, ante los problemas de inseguridad y de discrecionalidad política que -sobre todo en países poco desarrollados- suscitan los sistemas de registro de propiedad centralizados, propone una base de datos de títulos de propiedad distribuida o replicada a través de una red pública (un sistema de registro que –nos dice- sería capaz de sobrevivir a una guerra nuclear). Se trata de la creación de una especie de club de propietarios por medio de Internet, que se conciertan para llevar el rastro de la propiedad de algún tipo de activo. El título de propiedad de cada uno sobre un objeto estaría autenticado con la firma electrónica del titular anterior y así sucesivamente formando una cadena. Y el registro de la cadena de títulos de la que resulta quién es el propietario actual de cada objeto se basa en un consenso de la mayoría de los participantes, dado que es improbable que todos se pongan de acuerdo para cometer un fraude. Como veremos, aquí está ya in nuce el sistema de registro de titularidad de Bitcoin.

Otro importante artículo en que estas ideas se desarrollan es “Advances in distributed security” del año 2003, donde Szabo nos propone desechar la pretensión de una seguridad absoluta imposible de alcanzar, para conformarnos con sistemas con una alta probabilidad de seguridad como la que proporciona la criptografía. En este contexto, plantea cuestiones como un time stamping o sellado de tiempo distribuido, el empleo de los hashes como forma de identificar los mensajes o archivos objeto del sellado de tiempo, la creación de redes de replicación “bizantino-resilientes”, etc.

Además de la preocupación por sistemas alternativos para asegurar el cumplimiento de contratos y el tracto de las propiedades haciendo uso de Internet, la programación informática y la criptografía, Szabo puso también su atención en el tema específico del dinero, yendo mucho más allá del planteamiento de David Chaum. Lo que preocupaba a éste, como vimos, era el tema de la privacidad: cómo la intermediación de las entidades financieras en nuestros pagos electrónicos proporciona a éstas el conocimiento de datos esenciales de nuestras vidas. Szabo se enfrenta a otra cuestión: el sometimiento del valor del dinero que usamos a la discrecionalidad de las autoridades políticas, es decir, el problema de la inflación discrecional. Aquí es donde incide su propuesta Bit Gold del año 1998, que es coetánea de una idea muy similar: b-money de Wei Dai.

Este Wei Dai es un criptógrafo graduado también en ciencias de la computación por la Universidad de Washington, que en el año 1998 publicó un texto muy breve con el título “B-money: an anonymous, distributed electronic cash system” en la Cypherpunks mailing-list y que sería citado como referencia en el whitepaper de Satoshi Nakamoto (no así obra alguna de Szabo). La motivación de este Dai, como buen criptoanarquista, era básicamente la opacidad de las transacciones dinerarias y la terminología resulta quizá excesivamente elocuente al respecto: “dinero b”. Como curiosidad, indicaré que la fracción mínima de la criptomoneda Ether se denomina “wei”, como homenaje a este precursor.

Lo que se plantean estas propuestas (que enlazan con las visiones más radicales del criptoanarquismo de Tim May al que Dai cita explícitamente en el comienzo de su artículo) no es representar en un nuevo formato electrónico el dinero de curso legal ya existente para facilitar o conseguir el anonimato de los pagos electrónicos, sino de reemplazar ese dinero de origen estatal por un nuevo dinero creado por los propios usuarios asistidos por la red y la criptografía. Esta pretensión –como vemos, de significado político mucho más radical, pues viene a cuestionar uno de los atributos claves de la soberanía estatal, la acuñación de moneda- plantea un problema que va más allá de lo que es un simple problema de registro contable para controlar la circulación del dinero, es decir, para evitar la doble disposición de un activo digital: la cuestión de cómo se controla la creación de este dinero, para evitar la discrecionalidad y para asegurar su escasez y que de alguna manera sea reflejo de una actividad o valor económico.

Wei Dai propuso una especie de subasta on line periódica entre los participantes en el sistema para fijar el monto de nuevas monedas digitales puestas en circulación.

El planteamiento de Szabo era diferente. Éste llevaba tiempo dándole vueltas a la idea de cómo conseguir que una simple cadena o string de bits (una determinada sucesión de ceros y unos) fuera algo en sí mismo valioso. Estaba buscando un objeto digital que pudiera funcionar como el oro. El instrumento que concibió para ello –que es, a su vez, una aplicación del algoritmo hashcash creado por Adam Back para prevenir el spam de correo electrónico, citado también por Nakamoto- fue una prueba de trabajo computacional (lo que se conoce como una proof-of-work) a cuya solución se le pudiera atribuir un significado económico similar al oro, por el esfuerzo y aplicación de recursos que requiere su extracción, en este caso, el empleo de ciclos de computación. Así, este dinero electrónico ideado por Szabo se gestiona mediante un programa en la red que propone a los participantes en el sistema un determinado reto o problema matemático. Este problema o puzzle matemático está relacionado con la función criptográfica conocida como hashing y sólo se puede resolver aplicando “fuerza bruta computacional”, es decir, probando con distintas cifras hasta obtener un resultado que cuadre. El resultado así obtenido, que tiene la forma de una determinada serie o string de bits, se convierte en la primera unidad monetaria del sistema, con la que el programa premia al participante que ha sido el primero en encontrarla, y que éste puede emplear para hacer pagos a otros usuarios y así esta unidad monetaria o sus fracciones empiezan a circular. Y, a su vez, esta primera string de bits que se obtiene como resolución del problema constituye el punto de partida del siguiente reto que el programa plantea a continuación. De esta manera, de forma periódica y programada, se van introduciendo nuevas unidades monetarias en el sistema.

Quizá este planteamiento fuera un tanto primitivo –deudor de una concepción metalista y por tanto materialista del dinero, como cosa que debe estar dotada de valor intrínseco y no como un simple símbolo de valor-, y también desacertado, porque el valor intrínseco que atribuimos al oro no deriva sólo de su escasez y dificultad de obtención, sino de sus cualidades intrínsecas como sustancia, lo que nunca se podrá decir de una ristra de ceros y unos por compleja que sea su obtención.

Esta idea de Bit Gold, como el b-money de Dai, nunca se llegarían a poner en práctica, pero constituyen los antecedentes más directos de Bitcoin.

Sobre el origen intelectual de blockchain (II). Los precursores próximos

En la primera parte de este post por entregas sobre los antecedentes intelectuales de blockchain recordé dos personajes a los que califiqué como precursores remotos: Alan Turing y John von Neumann. En esta segunda parte me ocuparé de dos precursores más próximos: Tim May y David Chaum (y dejaré para una tercera a Nick Szabo y Wei Dai).

De los ominosos años de la segunda guerra mundial y la guerra fría nos trasladamos ahora a la década de los ochenta y noventa: un contexto político, socio-económico y tecnológico muy diferente. Tras la caída del muro y la descomposición del bloque del Este, de lo que se habla es de “fin de la historia” (en el sentido de abandono de las utopías marxistas) y de globalización; y en el ámbito tecnológico, de microprocesadores cada vez más potentes, de Internet, y de telefonía móvil.

Como recordarán, en los primeros años de la irrupción de Internet en nuestra sociedad se concibió por muchos la expectativa de grandes cambios culturales, sociales y políticos. La realización de los grandes sueños de la Ilustración parecía más cerca que nunca: un mundo compartimentado en agresivos Estados nacionales y controlado por las grandes multinacionales podía dar paso, gracias a esta nueva tecnología, a una verdadera comunidad humana universal, unida por la comunicación, la circulación de la información sin intermediarios y el fácil acceso al conocimiento. Por supuesto, esta comunidad en el ciberespacio tendría su faceta económica: un comercio universal, que vendría a difundir la prosperidad por todo el planeta.

Sin embargo, aunque el cambio en los hábitos sociales que ha traído consigo Internet y la telefonía sin hilos ha sido muy intenso, pronto se constató que la difusión de las nuevas tecnologías no llevaba consigo los cambios políticos que algunos esperaban. Los Estados nacionales no han desaparecido, sino que, precisamente, han encontrado en la tecnología digital una nueva arma de control de la ciudadanía con la excusa de un radicalismo y terrorismo globalizado que también ha sabido aprovecharse de la tecnología para sus propios fines, completamente ajenos a esa difusión de la ilustración que se suponía iba a traer consigo Internet. También en lo económico se ha podido constatar que globalización no es sinónimo de prosperidad general. Unas multinacionales han sucedido a otras, pero la concentración del poder económico no ha disminuido, sino que más bien se ha incrementado. En nuestros días, unas pocas empresas nacidas de las nuevas tecnologías como Apple, Microsoft, Google, Facebook o Amazon gozan de una penetración social y de una capacidad de influencia y de control como nunca habían existido antes.

Esto, que empezaba a gestarse ya en los años noventa, ha dado lugar a que ese pensamiento un tanto visionario y utópico propio de los primeros tiempos de Internet haya pasado –por así decirlo- a la resistencia, transformado en un activismo y una ideología contestataria y antisistema, pero desde dentro y con herramientas propias del universo digital. Aparecen así los hackers –rodeados, como todos los piratas y rebeldes, de una aureola de romanticismo-, los cyberpunks y, por lo que ahora nos interesa, los cypherpunks o criptoanarquistas, una corriente ideológica que reinvindica el acceso de los particulares a la criptografía, a las técnicas de cifrado o encriptación de la información, frente a las pretensiones de monopolizar el uso de esta tecnología por las agencias de seguridad nacionales.

La criptografía a que me estoy refiriendo es la criptografía de base matemática, que es la criptografía moderna, propia del mundo de la tecnología informática, de la aplicación de la electrónica a la computación, es decir, algo que empieza a desarrollarse sólo a partir de la mitad del siglo pasado. Anteriormente, las técnicas de cifrado eran mucho más rudimentarias: desde los códigos elementales consistentes en un simple algoritmo de sustitución de letras que empleaba Julio César en sus comunicaciones en campaña, hasta la encriptación electromecánica de los mensajes de telegrafía o de radio mediante la máquina Enigma de la inteligencia militar alemana durante la Segunda Guerra Mundial, que se basaba en el juego con las posiciones variables de los rotores de una máquina fabricada en serie que convertían unos caracteres alfabéticos en otros. La colocación de los rotores de la máquina de la que dispone el destinatario del mensaje en la misma posición en que se colocaron los rotores en la máquina del emisor es lo que permite el descifrado. Por tanto, se trataba de un sistema de cifrado de clave única o simétrica de naturaleza mecánica, que se iba cambiando cada cierto tiempo y que planteaba el problema de que dependía de la existencia de una información previa compartida por emisor y receptor acerca de la clave que se emplea en cada momento –es decir, la concreta disposición de los rotores que se está empleando en un momento dado-, información que podía ser interceptada por el enemigo y aprovechable por éste si disponía de un ejemplar del mismo modelo de máquina. La criptografía matemática se basa, por el contrario, en operaciones aritméticas o de cómputo o cálculo matemático que se aplican sobre mensajes digitalizados o numerizados, es decir, que se han convertido previamente en números. Gracias a los ordenadores –máquinas que operan a velocidad electrónica, es decir, a una velocidad próxima a la de la luz- es posible el uso práctico de estas técnicas de encriptación y desencriptación cuyo empleo requiere la realización veloz de estas muy complejas operaciones de cómputo numérico (que suelen tener por objeto grandes números primos, cuyo producto es muy difícil de factorizar).

En un primer momento, los gobiernos, en particular el estadounidense a través de la NSA (National Security Agency), trataron de reservarse el conocimiento y uso de esta tecnología que tan vital había resultado durante la guerra, evitando su difusión para el uso comercial y por el público en general. Sin embargo, a mediados de los años setenta, tras una complicada pugna con la NSA, la compañía IBM registró en la oficina nacional de estándares estadounidense un algoritmo estándar de cifrado conocido como DES (Data Encryption Standard), que sería puesto a disposición de las empresas del sector financiero (que lo requerían para el desarrollo de su red de cajeros automáticos), y cuyo conocimiento y difusión pública generó un creciente interés por la moderna criptografía matemática más allá del coto cerrado de los servicios de seguridad. En esa misma década, accedió también al conocimiento público el revolucionario descubrimiento de la criptografía asimétrica o de clave pública (primero el algoritmo de Diffie-Hellman, y luego el algoritmo RSA, de Rivest, Shamir y Adleman, que lo desarrollaron por primera vez en 1977), que resuelve el grave problema de vulnerabilidad al que me he referido que conlleva la distribución de las claves en los tradicionales sistemas de criptografía simétrica, una técnica que es precisamente vital para permitir las comunicaciones seguras entre desconocidos, lo que a su vez es imprescindible para el desarrollo de transacciones económicas en Internet.

Ya en los años noventa, nos encontramos en la vanguardia de este movimiento criptolibertario con un personaje llamado Timothy C. May –más conocido como Tim May-. Este hippie tecnológico californiano, que en su día fue un reputado ingeniero electrónico y científico que trabajó para Intel, publicó en una fecha tan temprana digitalmente hablando como el año 1992 el “Manifiesto Criptoanarquista”, un breve texto en el que anunciaba que la informática estaba al borde de proporcionar la capacidad a individuos y grupos de comunicarse e interactuar entre ellos de forma totalmente anónima. Dos personas pueden intercambiar mensajes, hacer negocios y concertar contratos electrónicos, sin saber nunca el nombre auténtico, o la identidad legal, de la otra. Las interacciones sobre las redes serán intrazables, gracias al uso extendido de re-enrutado de paquetes encriptados en máquinas a prueba de manipulación que implementen protocolos criptográficos con garantías casi perfectas contra cualquier intento de alteración. Las reputaciones tendrán una importancia crucial, mucho más importante en los tratos que las calificaciones crediticias de hoy en día. Estos progresos alterarán completamente la naturaleza de la regulación del gobierno, la capacidad de gravar y de controlar las interacciones económicas, la capacidad de mantener la información secreta, e incluso alterarán la naturaleza de la confianza y de la reputación.(…) Los métodos están basados en el cifrado de clave pública, sistemas interactivos de prueba de cero-conocimiento, y varios protocolos de software para la interacción, autenticación y verificación. El foco hasta ahora ha estado en conferencias académicas en Europa y EE.UU., conferencias monitorizadas de cerca por la Agencia de Seguridad Nacional. Pero solo recientemente las redes de computadores y ordenadores personales han alcanzado la velocidad suficiente para hacer las ideas realizables en la práctica…”.

En los años siguientes, Tim May fue el impulsor y principal contribuyente de textos a varios foros de Internet dedicados a la criptografía y a la ideología criptoanarquista (Cypherpunks electronic mailing links y Cyphernomicon), y es uno de los referentes intelectuales explícitos en el círculo de sujetos involucrados en el diseño de las primeras criptomonedas (como Nick Szabo o Wei Dai).

Con un enfoque no tan político sino más técnico y también de negocio nos encontramos al siguiente personaje, también californiano: David Lee Chaum, un brillante matemático e informático que ya desde los años ochenta fue creando novedosos protocolos criptográficos susceptibles de aplicación en el ámbito del comercio, los pagos e incluso la votaciones on line. En concreto, a él se debe el protocolo conocido como de “firma ciega”, que es el equivalente digital a esas votaciones que se hacen introduciendo un sobre anónimo con la papeleta dentro de otro sobre donde se identifica al votante.

La motivación de Chaum para la creación de este tipo de protocolos fue su preocupación por la privacidad de las transacciones económicas, algo que se estaba perdiendo a medida que se generalizaban los medios electrónicos de pago. Así, una de las propiedades esenciales del tradicional dinero efectivo en forma de monedas metálicas o billetes de papel es su carácter anónimo, de dinero al portador. Por el contrario, todas las nuevas formas de movilizar el dinero representado en cuentas bancarias, mediante transferencias, tarjetas de crédito, pasarelas de pago en Internet, etc. permiten el seguimiento de quién paga qué cantidad a quién y por qué. Y ello hace que un número creciente de datos que pueden revelar mucho sobre mis preferencias y hábitos de consumo y en definitiva sobre mi personalidad, quedan registrados y terminan en una base de datos digital que escapa completamente a mi control.

No voy a detenerme en explicar pormenorizadamente en qué consiste técnicamente el protocolo de firma ciega ideado por Chaum y que éste expuso en una conferencia del año 1982 con el título Blind signatures for untraceable payments. En definitiva, se trata de que un determinado sujeto o autoridad marque con su firma electrónica un concreto ítem digital generado por otro sujeto sin que el primero conozca el contenido del ítem marcado, pero sí de quién procede y de qué tipo de ítem se trata. ¿Y esto para qué sirve? Pues en actuaciones en que interesa que intervenga un tercero verificador o validador, por ejemplo, una autoridad electoral que verifique que quien va a emitir un voto on line está legitimado para votar y sólo vota una vez, pero de manera que esa autoridad verificadora no conozca el contenido del voto validado, dada la necesidad de preservar el secreto de la votación. Tratándose de dinero electrónico, el tercero verificador es el banco que lleva la cuenta del sujeto que pretende generar un ítem o token dinerario digital, porque ese banco es el que verifica si el sujeto emisor tiene saldo suficiente y debe dar de baja el importe correspondiente en su cuenta para evitar la doble disposición. ¿Y en este ámbito para qué sirve un protocolo de firma ciega? Pues para que el banco, una vez realizada la indicada verificación de la legitimación dispositiva del emisor, pueda marcar como válido el token dinerario emitido sin conocer el concreto número de serie que identifica individualmente a éste y permite su control. De esta manera, cuando el sujeto que ha recibido el pago presente un determinado token con su concreto número de serie a este mismo banco para su canje por dinero ordinario, el banco no sabe cuál de sus clientes fue el emisor de ese token y por tanto quién realizó ese concreto pago.

¿Y cómo se consigue que el banco firme un determinado ítem dinerario sin conocer el número de serie que lo individualiza? Aquí es donde interviene el ingenio matemático de Chaum: el emisor, es decir, el cliente del banco que quiere hacer un pago con efectivo electrónico, genera aleatoriamente un número de serie x y antes de remitirlo con su solicitud al banco lo envuelve o disfraza multiplicándolo por un factor C que sólo él conoce. O dicho de otra forma, el emisor envía al banco un número de serie encriptado mediante una función o algoritmo conmutativo C(x), que es reversible realizando la operación aritmética inversa, en este caso, la división C’ por el mismo factor. El banco validador, una vez verificada la legitimación dispositiva del emisor, aplica su firma electrónica con su clave privada S’ a ese número de serie encriptado y remite el resultado, S’(C(x)), al emisor. Éste aplica ahora la división inversa a la multiplicación mediante la que encriptó el número de serie, C’(S’(C(x))), y obtiene S’(x), es decir, el número de serie original con la firma electrónica del banco, o lo que es lo mismo un billete de banco electrónico que se puede emplear para realizar un pago sin que el banco conozca quién ha sido el generador de ese concreto billete. Por tanto, algo absolutamente análogo a la emisión de billetes de banco contra depósitos en efectivo metálico, pero en un entorno digital.

El propio David Chaum intentó llevar a la práctica esta idea con la creación de la empresa DigiCash, con sede en Amsterdam, en el año 1989, un negocio que no llegó a ir bien (de hecho, sólo dos bancos se adhirieron al proyecto: un banco de Missouri llamado Mark Twain Bank, y el Deutsche Bank, no hubo más de 5.000 clientes y el volumen total de pagos no pasó de los 250.000 $). Según explicaría su creador, fue difícil conseguir que un número suficiente de comerciantes aceptasen este medio de pago, de manera que hubiese un número suficiente de consumidores que lo utilizasen, o viceversa. David Chaum se convirtió en un héroe para los criptoanarquistas o cryptoliberterians, pero el problema fue que al consumidor medio no le termina de preocupar demasiado el tema de la privacidad de sus transacciones. Al final, DigiCash quebró y tuvo que vender todos sus activos en el año 1998.

En cualquier caso, lo que me interesa de esta experiencia es que el dinero efectivo electrónico que ideó David Chaum sigue dependiendo del dinero de curso legal ordinario (porque siempre se parte de y se termina en una cuenta bancaria en dólares, euros o cualquier otra divisa estatal); y que el control contable que evita el doble gasto sigue encomendado al sistema bancario tradicional, pues es un banco el que comprueba la legitimación del emisor y da de baja en cuenta la cantidad emitida de cash electrónico.

La futura criptomoneda Bitcoin supondrá un cambio absolutamente radical de modelo.

(La obra pionera sobre criptografía matemática es un artículo de Claude Shannon “Communication Theory of Secrecy Systems”, publicado en el año 1949 en el Bell System Technical Journal, y el libro de Shannon y Warren Weaver “Mathematical Theory of Communication”.

Una explicación del funcionamiento de la máquina Enigma y una narración de las curiosas peripecias de la lucha criptográfica durante la Segunda Guerra Mundial en una obra que ya cité en el anterior post: “Alan Turing. El pionero de la era de la información”, de B. Jack Copeland, Turner Noema, Madrid, 2012, págs. 51 y ss.

Sobre la lucha de los primeros criptoanarquistas contra la NSA: “Cripto. Cómo los informáticos libertarios vencieron al gobierno y salvaguardaron la intimidad en la era digital”, de Steven Levy, Alianza Editorial, 2001.)

El anarco-dinero y la superación del problema del doble gasto

Bitcoin es la primera y más popular criptomoneda. Se trata de moneda electrónica anónima (al portador) y descentralizada. Lo disruptivo no es la condición electrónica del dinero-la mayoría de las transacciones dinerarias en los países desarrollados ya lo son-sino la descentralización del procedimiento. Se trata de un sistema que aspira a garantizar robustez en el flujo dinerario sin el concurso de terceros interpuestos. Sin que la transacción precise la consolidación contable entre los bancos del deudor y del acreedor.

Bitcoin es sólo uno de los fenómenos tras una corriente de pensamiento que emerge con fuerza. Para entenderlo hay que reflexionar sobre la filosofía que hay detrás, intercambio de ficheros, el código libre o Blockchain.

Uno de los anhelos anarco-capitalistas es contar con dinero que permita transacciones al margen del control de los Estados y sus bancos centrales. Dinero de adopción voluntaria que pueda ser aceptado como medio de pago universal permitiendo el anonimato que en la actualidad proporciona el dinero al portador. Algo que permita un flujo dinerario descentralizado, ágil, anónimo y eficaz.

Para que el flujo dinerario sea eficaz es imprescindible que el anarco-dinero utilizado como cualquier otro, solucione lo que se ha dado en denominar “el problema del doble gasto”. Es consustancial con el funcionamiento del dinero, en cualquier formato, que quien lo utiliza para pagar a un tercero agote el ulterior derecho de disposición sobre este, otorgándoselo al acreedor al que ha pagado, y así sucesivamente. De no ser así, el anarco-dinero estaría en una  espiral inflacionista que supondría su desaparición.

Cuando se usa efectivo (monedas y billetes) la traslación de su posesión evita ulteriores disposiciones por parte de quien paga. El problema del doble gasto se soluciona por pérdida de la posesión de algo tangible. La entrega del metal o papel impide el doble gasto.

La utilización del dinero efectivo permite que la identidad de acreedor y deudor sea sólo conocida, en su caso, por ellos mismos. Es opaca para cualquiera que no haya presenciado el pago. Presenta abundantes inconvenientes como los pagos a distancia, los robos, la intrínseca limitación de la condición metálica de la moneda en cuanto a peso y volumen, etc. Por estos y otros motivos el formato y naturaleza del dinero ha ido evolucionando. Sin embargo, siempre ha existido el objetivo común de evitar su doble gasto. Así por ejemplo, los billetes no son sino títulos al portador cuya entrega agota el derecho de disposición de su inicial poseedor.

Si queremos que el anarco-dinero funcione, también tiene que ser ágil. Como el presupuesto necesario para la eficacia de cualquier dinero es evitar su múltiple disposición, habrá de llevarse una contabilidad única de todas las transacciones de los adheridos a la anarco-moneda. La exigencia en la llevanza de esta contabilidad será creciente, en función del número de adhesiones y del de transacciones. Es evidente que, la recepción de órdenes de transferencias, la verificación de la identidad del pagador, la verificación de la existencia de saldo y la consolidación contable del dinero transmitido, es una labor de difícil asunción universal y solitaria.

Además la llevanza solitaria de la contabilidad invita a cuestionar la incondicional honorabilidad de quien la lleva. Desde una perspectiva anarquista, la posibilidad de manipulación de la matriz permanece en la medida en que el control de esa contabilidad recaiga en concretas personas, que serán igualmente corruptibles.

La solución pasa por una llevanza colaborativa de la contabilidad. Los intervinientes en el tráfico dinerario llevan coordinada o recurrentemente su contabilización. Sin embargo, lo inconvenientes de orden práctico de esta llevanza colaborativa son fácilmente imaginables. Alcanzar consensos en un entorno analógico requiere tiempo y esfuerzo que rápidamente comprometerían la agilidad del anarco-dinero.

Pero, teniendo en cuenta la condición eminentemente electrónica del dinero ¿es posible con ayuda de ingenieros informáticos y algoritmos matemáticos, emular el funcionamiento del dinero al portador en un entorno ágil y fiable? Para ello, insisto, habrá que recepcionar todas las órdenes de pago, verificar la identidad del deudor, actualizar el saldo y registrar el asiento contable que acredita la transacción y todo eso hacerlo de forma descentralizada.

Cuando el dinero es electrónico, el problema del doble gasto se soluciona por interposición; mediante la consolidación de las contabilidades de los interpuestos entre acreedor y deudor. Se interponen en su concepción de mandatarios de una orden de recepción o pago. Si la transferencia electrónica del dinero fuese directa, sin terceros interpuestos que verificasen la existencia de saldo y consolidasen los asientos contables, el deudor siempre podría cuestionar la existencia de las previas transacciones que le habrían despojado de su derecho de disposición. Los interpuestos actúan como testigos de la transacción. Como su testimonio es electrónico, cuentan con un registro informático que acredita la existencia del mandato de pago y su cumplimiento. La interposición bancaria es sin embargo, centralizada, con lo que no cumple con el presupuesto esencial del anarco- dinero. Ni las transacciones son anónimas, ni la contabilización de éstas se produce de forma descentralizada o colaborativa. Para lograrlo, debemos contar con un registro informático único en el que se anoten las transacciones de forma colaborativa, que se consigue con lo que se ha dado en denominar Registros Distribuidos, que es en definitiva la tecnología tras Blockchain

(Para profundizar sobre Bockchain véase: “Blockchain; perspectiva jurídica. De la confianza al consenso”,  de José María Anguiano)

Los sindicatos en la encrucijada: ¿nacionales o internacionales?

Llama la atención, en la evolución sindical de los últimos años, el alejamiento progresivo de los iniciales planteamientos internacionalistas y la asunción, cada vez mayor, de puntos de vista meramente locales o nacionales. La vieja enseña del internacionalismo proletario, la aspiración a la defensa de los intereses de los trabajadores en un ámbito mundial, o cuanto menos supranacional, deja paso a políticas sindicales muy condicionadas por los intereses territoriales más inmediatos que, en muchas ocasiones, entran en colisión con los defendidos por las organizaciones sindicales implantadas en otros territorios. De las grandes manifestaciones sindicales que predicaban la lucha obrera en el marco de la solidaridad internacional, de los impulsos organizativos en el ámbito europeo y mundial, que tratan de estar presentes en los más relevantes debates globales, hemos pasado a una defensa de intereses centrada preferentemente en el territorio en que cada organización sindical opera.

¿Qué hay en el trasfondo de esta evolución? Por supuesto, desconcierto, perplejidad y falta de análisis, y comprensión, de los nuevos fenómenos económicos y sociales asociados a la globalización y a las nuevas relaciones laborales. Pero hay algo más: la evolución de las relaciones laborales, en un mundo cada vez más abierto y globalizado, ha provocado que los sindicatos sean organizaciones cada vez más nacionales, mientras que las empresas se sitúan, cada vez más, en una perspectiva supranacional. Las empresas son cada vez más internacionales, el juego de las fuerzas económicas es cada vez más global, mientras que los sindicatos tienen cada vez más dificultades para llevar adelante propuestas y planteamientos que superen las fronteras nacionales.

En la actual dinámica económica, en muchos conflictos empresariales los sindicatos tienen cada vez más difícil asumir un papel de jugador global y se ven constreñidos a limitarse a la defensa de intereses locales, que entran frecuentemente en contradicción con los de los trabajadores y las organizaciones sindicales de otros territorios. En los procesos de reestructuraciones industriales y de deslocalización de la producción, la única arma sindical de presión que podría resultar eficaz sería la de la movilización laboral que superase fronteras y constituyera un frente de presión y de negociación coordinado en el ámbito internacional. Solo la presión concertada de las distintas unidades productivas permitiría mantener una interlocución con verdadera capacidad de influencia sobre las decisiones empresariales. Pero eso tropieza con un obstáculo insalvable: los intereses de los trabajadores, y de sus sindicatos, en los distintos territorios no son en la mayor parte de los casos coincidentes. La deslocalización de la producción perjudica al territorio afectado por ella, pero beneficia a los trabajadores del país al que la producción se deslocaliza. El problema se agudiza en los supuestos de unidad de mercado, en los que ni siquiera es correcto hablar de “deslocalización” para hacer referencia al traslado de la producción a otro de los países integrados en el mercado único.

Tenemos ejemplos recientes de todo ello. Ha habido casos de cierre de unidades productivas, por parte de empresas transnacionales, con instalaciones en varios países de la Unión Europea, en los que el primer objetivo de los sindicatos ha sido obtener la solidaridad de los de esos otros países, pidiéndoles acciones de presión para conseguir un replanteamiento por parte de la empresa de sus intenciones. Y la respuesta obtenida no ha podido ser más desilusionante: el cierre de la factoría iba a suponer el aumento de la producción y la consolidación de otras fábricas, por lo que los trabajadores de estas no iban a sumarse a acciones que podían redundar en perjuicio de sus intereses.

Y esta situación se reproduce, con aristas más llamativas, en el seno de los propios grupos empresariales. Basta ver lo que sucede en el sector del automóvil, en el que el anuncio por parte de una firma de la fabricación de un nuevo modelo o del lanzamiento de una nueva producción genera una auténtica carrera competitiva entre las fábricas de los distintos países para conseguir hacerse con el encargo. Lógicamente, en esa carrera influyen, y mucho, las condiciones laborales ofrecidas por los sindicatos para asegurarse la producción y, en muchas ocasiones, la propia supervivencia de la planta. En esas condiciones, es ilusorio plantear posicionamientos sindicales comunes y cada sindicato se ve compelido a la estricta defensa de los intereses de sus respectivos trabajadores, en claro contraste con los de los trabajadores de otros territorios. El sindicato se ve así forzado a “pensar” en términos nacionales o regionales mientras que la empresa plantea y desarrolla sus estrategias a un nivel global. A eso es a lo que me refiero cuando digo que los sindicatos son cada vez más nacionales y que las empresas son cada vez más internacionales o transnacionales. Más globales en definitiva.

Esta evolución, a su vez, ha modificado sustancialmente la dinámica de las relaciones laborales y la relación de fuerzas entre sus protagonistas. Por una parte, dadas las características del nuevo sistema productivo, los sindicatos tienen una capacidad de presión cada vez mayor  en el ámbito local y en el corto plazo. Muchas empresas no soportan un paro, ni siquiera de corta duración, de la producción. En particular ello sucede en empresas suministradoras de otras, que deben operar just in time y que deben afrontar una competencia encarnizada. En todos estos casos, las batallas las suelen ganar los sindicatos y eso explica la deriva de la negociación colectiva, con convenios con cada vez más concesiones. En muchas ocasiones nos encontramos con contenidos de convenios que suscitan, ante todo, la pregunta de cómo pudieron concederse  por las empresas. Y la respuesta no es otra que esa imposibilidad de afrontar un paro de la producción. Pero si las batallas las ganan los sindicatos, las guerras las ganan las empresas. La ventaja sindical en el corto plazo se transforma en prevalencia empresarial en el medio y largo plazo. Si los sindicatos no saben administrar adecuadamente esa capacidad de presión en el corto plazo, corren el riesgo de provocar una situación en la que la empresa, que no es un jugador local sino global, debe reorganizar la producción y recurrir a procesos de deslocalización o de asignación de la carga de trabajo a otras unidades productivas. En España hemos tenido ejemplos de actuaciones sindicales que han ido, como diría Groucho Marx, de victoria en victoria hasta la derrota final, habiendo conducido las brillantes y reiteradas victorias negociadoras al cierre de la factoría y a la deslocalización de la producción.

Los sindicatos deberían buscar la manera de romper esa dinámica y tratar de encontrar un nuevo papel en el ámbito global en el que se toman las decisiones más relevantes. Enrocarse en posturas localistas es el camino más seguro hacia la irrelevancia y condenaría a los sindicatos a un papel estrictamente corporativo, de defensa de intereses profesionales de determinados núcleos de trabajadores, en ocasiones no ya frente a las empresas sino frente a otros núcleos de trabajadores, y alejado de la interlocución en los niveles realmente relevantes para la toma de decisiones y de la más mínima influencia en la ordenación de las relaciones sociales (ese papel político, más allá de lo estrictamente corporativo, que siempre han pretendido los sindicatos).