La comprobación de valores en el Tribunal Supremo

El Tribunal Supremo ha sentado recientemente jurisprudencia sobre un tema tradicionalmente controvertido como es el de los requisitos de la comprobación de valores. Y lo ha hecho a partir de dos sentencias de 23 de mayo de 2018, dictadas en los recursos de casación 1880/2017 y 4202/2017, seguidas de otras sentencias sobre el mismo asunto en las que el Alto tribunal se remite a aquellas dos iniciales, como las de 5 de junio de 2018 (recursos de casación núms. 1881/2017 y 2867/2017) y la sentencia de 13 junio de 2018 (recurso de casación núm. 2232/2017).

Aunque las controversias en torno a la comprobación de valores han dado lugar a una extensa jurisprudencia del Tribunal Supremo y a numerosas sentencias de los Tribunales Superiores de Justicia, las sentencias de 23 de mayo de 2018 se refieren a un aspecto más concreto, aunque no por ello menos trascendente, como lo es el sentido del método de comprobación a que se refiere el artículo 57 de la LGT, en la letra b) de su apartado 1. Como es sabido, este precepto admite que la comprobación del valor se lleve a cabo por estimación por referencia a los valores que figuren en los registros oficiales de carácter fiscal. Tal y como prevé a continuación el precepto, esa estimación puede consistir en la aplicación de coeficientes multiplicadores publicados por la Administración tributaria en los términos de los artículos 158.1 y 160 del Reglamento General de Gestión e Inspección Tributaria. Como en el caso de bienes inmuebles ese valor fiscal debe ser el valor catastral, distintas Comunidades Autónomas habían seguido el criterio de publicar normas de las Consejerías competentes dando publicidad a estos coeficientes por municipios sobre los valores catastrales y soportando en ellos la rectificación de los valores declarados por los contribuyentes en relación bien con el ITP-AJD o con ISD.

El Tribunal Supremo en las sentencias comentadas interpreta el artículo 57.1.b) de la LGT en un sentido tal vez ajeno a las razones que llevaron al legislador estatal a su reforma con ocasión de la Ley 36/2006, de 29 de noviembre, de medidas para la prevención del fraude fiscal. Para el Alto Tribunal, hallándonos en el ámbito del ITP-AJD, cualquier actuación de comprobación del valor debe estar presidida por la búsqueda del valor real del bien inmueble transmitido. Ese valor real “[n]o arroja-no puede hacerlo-un guarismo exacto, único y necesario, sino una franja admisible entre un máximo y un mínimo”, pero, con este margen de incertidumbre, ese valor real sólo puede alcanzarse, a juicio de la Sala, teniendo en cuenta las circunstancias singulares y las características propias del bien, lo cual sería de por sí incompatible con el empleo de tablas, coeficientes o estimaciones globales. Sobre esta premisa, la Sala trata de conciliar lo que dispone una norma con rango de ley con su concepción de la comprobación de valores lo cual conduce a una interpretación conforme a la Constitución de los requisitos de estas actuaciones. La Sala, con el argumento de hallarnos en un impuesto concreto como el ITP-AJD, reprocha en realidad a la norma que haya tratado de soslayar la jurisprudencia histórica del  Tribunal Supremo sobre los requisitos de una comprobación de valores pericial, lo que a su juicio equivaldría a dejar en manos de la Administración “[l]a decisión sobre qué grado de cumplimiento de la jurisprudencia está dispuesta a aceptar”. Aunque el Alto Tribunal asume que la norma persigue la seguridad jurídica y la reducción de la litigiosidad, añade que estos “[b]uenos deseos es dudoso que puedan ser constitucionalmente legítimos cuando en su plasmación jurídica vienen a sustituir un sistema de comprobación individual, ad casum, por parte de funcionario experto y neutral, que la jurisprudencia exigía que fuera singular, motivada y basada en la observación directa de los bienes, por otro método de establecimiento universal e indistinto de valores para todo el municipio, desatento a las singularidades de tales bienes…”. De esta forma, el Tribunal Supremo no cuestiona solo la idoneidad de la concreta orden autonómica, por incumplir el deber de explicar la metodología seguida para llegar a los coeficientes. El Alto Tribunal cuestiona el acierto de la opción legal para servir como método de una verdadera comprobación del valor y exige de ésta que, cuando pretenda alcanzar el valor real de un bien, es decir conceptualmente siempre, complete la comprobación del valor una actividad comprobadora “directamente relacionada con el inmueble singular que se someta a avalúo”.

Las sentencias comentadas merecen algunos comentarios adicionales. En primer lugar, estas sentencias contienen unos pronunciamientos adicionales de gran interés sobre la tasación pericial contradictoria. Por un lado, en contra de lo que suele sostener la Administración, parece sostenerse que esa tasación es siempre potestativa para el contribuyente. Por otro, desde luego, se afirma que en el proceso judicial contra la liquidación derivada de la comprobación el interesado puede valerse de cualesquiera medios de prueba admisibles en Derecho, hayan sido o no propuestos en la vía administrativa impugnatoria previa.

En segundo lugar, las sentencias de 23 de mayo de 2018 suponen, como en ellas se reconoce expresamente, un cambio de criterio y de jurisprudencia del Tribunal Supremo. Así lo resalta el voto particular que acompaña a las sentencias que especialmente expresa su parecer contrario al apartamiento del criterio anterior sentado en las Sentencias de 6 de abril de 2017 (recursos de casación núms. 888/2016 y 1183/2016). En realidad, el voto particular que acompañaba a las sentencias de 2017 se convierte ahora en criterio de la mayoría. En el debate entre respeto a la doctrina sentada y cambio de la misma, el Alto Tribunal opta por esto último aprovechando unos recursos de casación en unos casos en los que más allá del debate doctrinal resaltan las limitaciones de la comprobación de valores ante trasmisiones con precios totalmente fiables que tienen lugar en 2012 en un municipio, Seseña, especialmente afectado por la crisis inmobiliaria entonces.

Tercero y por último: como en el cuento, después de todo la comprobación de valores todavía está ahí, con un grado de litigiosidad injustificado entre otras razones por las dificultades que entraña esta labor encomendada sobre todo a las Administraciones de las Comunidades Autónomas. El Tribunal Supremo rechaza ahora una pretendida solución, que seguirá en forma de tablas orientativas de valores en espera de que el legislador reforme la normativa de los impuestos afectados.

Sobre el origen intelectual de blockchain (III). Más precursores próximos

Terminé el post anterior ocupándome de la figura de David Chaum y de cómo su proyecto DigiCash no suponía una verdadera ruptura con el dinero de curso legal tradicional. El salto disruptivo al respecto, aunque fuera en un plano todavía meramente teórico o especulativo, es atribuible a los siguientes dos personajes de esta historia.

El primero de ellos colaboró precisamente con David Chaum en la malograda empresa DigiCash. Se trata de un estadounidense con apellido de origen húngaro: Nick Szabo. Personaje polifacético: graduado en 1989 en ciencias de computación por la Universidad de Washington, criptógrafo y jurista. Además de trabajar en DigiCash, fue el diseñador de Bit Gold, un proyecto de divisa digital antecesora de Bitcoin y blockchain. De hecho, muchos han afirmado que la identidad real tras el seudónimo “Satoshi Nakamoto” –el creador de Bitcoin- es Szabo, algo que él siempre ha negado. Así, el escritor y periodista financiero británico Dominic Frisby afirma: “I’ve concluded there is only one person in the whole world that has the sheer breadth but also the specificity of knowledge and it is this chap…”. Incluso una subunidad de la criptomoneda Ether (la moneda de la plataforma Ethereum) ha sido bautizada con su nombre (el “szabo”).

La primera gran aportación de Szabo a nuestro tema fue un artículo publicado en una revista futurista y transhumanista californiana denominada Extropy en el año 1996 con el título “Smart contracts: building blocks for digital free markets”. En este visionario artículo Szabo, como informático, criptógrafo y a la vez jurista, se plantea cómo la combinación de Internet con los modernos protocolos criptográficos (criptografía asimétrica o de doble clave, sistemas de firma ciega como los ideados por Chaum, o de firma múltiple, protocolos de mixing) podría revolucionar el derecho tradicional de contratos, permitiendo que esa pieza jurídica básica que es el contrato y que es la base de toda nuestra economía de mercado pudiera estar a la altura de las exigencias del comercio on line. En este artículo se crea el concepto y la terminología –ahora mismo en boca de todos- “smart contract” o contrato inteligente: un programa informático mediante el cual se ejecutan de forma automática unas prestaciones que no sólo son convenidas sino además programadas, lo que da lugar a un contrato que se autoejecuta con la ayuda de la tecnología informática. Algo ideal precisamente para una contratación no sólo entre ausentes sino entre desconocidos, que no tienen ningún motivo para confiar entre sí. También encontramos por primera vez el término “smart property” o propiedad inteligente, que es el resultado de integrar un contrato inteligente en un objeto físico (un automóvil, la cerradura de una vivienda), de manera que la disposibilidad física de ese objeto también sea programable según los términos de un determinado acuerdo.

Este primer artículo sobre los smart contracts fue revisado y ampliado en una publicación del año 1997 con el título “Formalizing and securing relationships on public networks”. En este texto encontramos ya una alusión a la idea de una confianza distribuida, es decir, a cómo la intervención de varios agentes en el control y registro de una transacción es una garantía de seguridad y de protección contra el fraude.

Esta idea se desarrolla y empieza a ganar entidad en publicaciones posteriores como “Secure Property Titles with Owner Authority” del año 1998, un artículo en el que, ante los problemas de inseguridad y de discrecionalidad política que -sobre todo en países poco desarrollados- suscitan los sistemas de registro de propiedad centralizados, propone una base de datos de títulos de propiedad distribuida o replicada a través de una red pública (un sistema de registro que –nos dice- sería capaz de sobrevivir a una guerra nuclear). Se trata de la creación de una especie de club de propietarios por medio de Internet, que se conciertan para llevar el rastro de la propiedad de algún tipo de activo. El título de propiedad de cada uno sobre un objeto estaría autenticado con la firma electrónica del titular anterior y así sucesivamente formando una cadena. Y el registro de la cadena de títulos de la que resulta quién es el propietario actual de cada objeto se basa en un consenso de la mayoría de los participantes, dado que es improbable que todos se pongan de acuerdo para cometer un fraude. Como veremos, aquí está ya in nuce el sistema de registro de titularidad de Bitcoin.

Otro importante artículo en que estas ideas se desarrollan es “Advances in distributed security” del año 2003, donde Szabo nos propone desechar la pretensión de una seguridad absoluta imposible de alcanzar, para conformarnos con sistemas con una alta probabilidad de seguridad como la que proporciona la criptografía. En este contexto, plantea cuestiones como un time stamping o sellado de tiempo distribuido, el empleo de los hashes como forma de identificar los mensajes o archivos objeto del sellado de tiempo, la creación de redes de replicación “bizantino-resilientes”, etc.

Además de la preocupación por sistemas alternativos para asegurar el cumplimiento de contratos y el tracto de las propiedades haciendo uso de Internet, la programación informática y la criptografía, Szabo puso también su atención en el tema específico del dinero, yendo mucho más allá del planteamiento de David Chaum. Lo que preocupaba a éste, como vimos, era el tema de la privacidad: cómo la intermediación de las entidades financieras en nuestros pagos electrónicos proporciona a éstas el conocimiento de datos esenciales de nuestras vidas. Szabo se enfrenta a otra cuestión: el sometimiento del valor del dinero que usamos a la discrecionalidad de las autoridades políticas, es decir, el problema de la inflación discrecional. Aquí es donde incide su propuesta Bit Gold del año 1998, que es coetánea de una idea muy similar: b-money de Wei Dai.

Este Wei Dai es un criptógrafo graduado también en ciencias de la computación por la Universidad de Washington, que en el año 1998 publicó un texto muy breve con el título “B-money: an anonymous, distributed electronic cash system” en la Cypherpunks mailing-list y que sería citado como referencia en el whitepaper de Satoshi Nakamoto (no así obra alguna de Szabo). La motivación de este Dai, como buen criptoanarquista, era básicamente la opacidad de las transacciones dinerarias y la terminología resulta quizá excesivamente elocuente al respecto: “dinero b”. Como curiosidad, indicaré que la fracción mínima de la criptomoneda Ether se denomina “wei”, como homenaje a este precursor.

Lo que se plantean estas propuestas (que enlazan con las visiones más radicales del criptoanarquismo de Tim May al que Dai cita explícitamente en el comienzo de su artículo) no es representar en un nuevo formato electrónico el dinero de curso legal ya existente para facilitar o conseguir el anonimato de los pagos electrónicos, sino de reemplazar ese dinero de origen estatal por un nuevo dinero creado por los propios usuarios asistidos por la red y la criptografía. Esta pretensión –como vemos, de significado político mucho más radical, pues viene a cuestionar uno de los atributos claves de la soberanía estatal, la acuñación de moneda- plantea un problema que va más allá de lo que es un simple problema de registro contable para controlar la circulación del dinero, es decir, para evitar la doble disposición de un activo digital: la cuestión de cómo se controla la creación de este dinero, para evitar la discrecionalidad y para asegurar su escasez y que de alguna manera sea reflejo de una actividad o valor económico.

Wei Dai propuso una especie de subasta on line periódica entre los participantes en el sistema para fijar el monto de nuevas monedas digitales puestas en circulación.

El planteamiento de Szabo era diferente. Éste llevaba tiempo dándole vueltas a la idea de cómo conseguir que una simple cadena o string de bits (una determinada sucesión de ceros y unos) fuera algo en sí mismo valioso. Estaba buscando un objeto digital que pudiera funcionar como el oro. El instrumento que concibió para ello –que es, a su vez, una aplicación del algoritmo hashcash creado por Adam Back para prevenir el spam de correo electrónico, citado también por Nakamoto- fue una prueba de trabajo computacional (lo que se conoce como una proof-of-work) a cuya solución se le pudiera atribuir un significado económico similar al oro, por el esfuerzo y aplicación de recursos que requiere su extracción, en este caso, el empleo de ciclos de computación. Así, este dinero electrónico ideado por Szabo se gestiona mediante un programa en la red que propone a los participantes en el sistema un determinado reto o problema matemático. Este problema o puzzle matemático está relacionado con la función criptográfica conocida como hashing y sólo se puede resolver aplicando “fuerza bruta computacional”, es decir, probando con distintas cifras hasta obtener un resultado que cuadre. El resultado así obtenido, que tiene la forma de una determinada serie o string de bits, se convierte en la primera unidad monetaria del sistema, con la que el programa premia al participante que ha sido el primero en encontrarla, y que éste puede emplear para hacer pagos a otros usuarios y así esta unidad monetaria o sus fracciones empiezan a circular. Y, a su vez, esta primera string de bits que se obtiene como resolución del problema constituye el punto de partida del siguiente reto que el programa plantea a continuación. De esta manera, de forma periódica y programada, se van introduciendo nuevas unidades monetarias en el sistema.

Quizá este planteamiento fuera un tanto primitivo –deudor de una concepción metalista y por tanto materialista del dinero, como cosa que debe estar dotada de valor intrínseco y no como un simple símbolo de valor-, y también desacertado, porque el valor intrínseco que atribuimos al oro no deriva sólo de su escasez y dificultad de obtención, sino de sus cualidades intrínsecas como sustancia, lo que nunca se podrá decir de una ristra de ceros y unos por compleja que sea su obtención.

Esta idea de Bit Gold, como el b-money de Dai, nunca se llegarían a poner en práctica, pero constituyen los antecedentes más directos de Bitcoin.

La nueva obligación de comunicación de los intermediarios fiscales

La Unión Europea ha aprobado finalmente y tras una tramitación especialmente rápida la Directiva por la que se obliga a los llamados intermediarios fiscales a suministrar determinada información sobre operaciones transnacionales con trascendencia fiscal. Nos referimos a la Directiva 2018/822, de 25 de mayo de 2018 (DOUE de 5 de junio), que modifica la Directiva 2011/16/UE por lo que se refiere al intercambio automático y obligatorio de información en el ámbito de la fiscalidad en relación con los mecanismos transfronterizos sujetos a comunicación de información.

1.- Antecedentes de la Directiva

Algunos países habían ensayado fórmulas de comunicación de transacciones que podrían suponer una planificación fiscal agresiva. Fue el caso de Estados Unidos con su sistema de “tax shelter disclosure” o del Reino Unido con el llamado DOTAS o “disclosure of tax avoidance schemes”. Estas experiencias se  extendieron a otros países e inspiraron  la Acción 12 del proyecto BEPS, sobre las “mandatory disclosure rules”. En el informe final correspondiente, la OCDE invitaba al uso de estas fórmulas de comunicación de información, en relación con los “promotores” de esquemas estándar identificados mediante “hallmarks” o características listadas. La comunicación tendría la doble finalidad de proporcionar información inmediata a las Administraciones y de disuadir de la oferta de esquemas de planificación fiscal abusiva.

Recogiendo estas ideas del proyecto BEPS, la Comisión europea presentó una Propuesta de directiva el 21 de junio de 2017 y, tras el acuerdo político del ECOFIN de 13 de marzo de 2018, se llega al texto de la Directiva 2018/822 que presenta notables diferencias respecto del texto de la propuesta inicial especialmente a la hora de ampliar el ámbito subjetivo de la propia obligación de comunicación. La Directica supone una modificación de la Directiva 2011/16, sobre intercambio automático de información entre los Estados miembros en el ámbito de la fiscalidad y de ahí la denominación de aquélla como DAC6.

2.- Contenido de la Directiva.

El contenido de la Directiva puede resumirse fácilmente. Los llamados intermediarios fiscales deberán comunicar a su Administración tributaria determinada información sobre los mecanismos transfronterizos en los que intervengan, cuando tales mecanismos reúnan alguna de las características entre las listadas en la propia Directiva. Luego,  los Estados miembros intercambiarán esa información automáticamente y así conocerán pronto planificaciones abusivas o con riesgo de serlo.

La información ha de referirse a un mecanismo transfronterizo (“dispositifs” o “arrangements” en las versiones en lengua francesa o inglesa). Los mecanismos puramente domésticos, que no afectan a otro Estado, no están sujetos a un deber de comunicación, aunque un Estado miembro puede incluir unilateralmente tales operaciones en el ámbito de la comunicación obligatoria.

El concepto “mecanismo” no se define. Hay que entender que se trata de cualquier negocio u operación o conjunto de negocios. Y ese mecanismo estará sujeto a comunicación obligatoria cuando reúna alguna de las características o señas distintivas del nuevo Anexo IV en la Directiva 2011/16.  Estos “hallmarks” o señas distintivas parecen responder a diferentes objetivos. Las dos primeras de las cinco categorías de señas distintivas afectan a típicos esquemas de planificación fiscal estándar en los que suele mediar un propósito fiscal combinado con una retribución a la parte del promotor y una cláusula de confidencialidad. La tercera de las categorías apunta a mecanismos que conducen a una no imposición aprovechando ciertos regímenes fiscales incluida la ausencia de impuesto sobre sociedades en otro Estado o la aplicación por éste de un tipo cero “o casi cero”. La cuarta categoría trata de disuadir esquemas que afecten al intercambio internacional de información y la titularidad real. Y la última categoría pueda ser la más controvertida al referirse a cuestiones de precios de transferencia incluyendo mecanismos ligados a la transmisión de intangibles difíciles de valorar y a ciertas reorganizaciones entre sociedades del mismo grupo con transferencia de funciones, riesgos o activos, si el resultado de explotación (EBIT) anual previsto, durante los tres años posteriores, del ordenante o los ordenantes es inferior al 50 por 100 del EBIT anual previsto de no haberse realizado la transferencia.

Son los intermediarios de un Estado miembro, y no en principio los contribuyentes, los obligados a declarar. Y la Directiva recoge una noción muy amplia de intermediario. Lo es cualquier persona que diseñe, comercialice, organice, ponga a disposición para su ejecución un mecanismo transfronterizo sujeto a comunicación de información, o que gestione su ejecución. Pero también cualquier persona que sabe o cabe suponer que sabe que presta, directamente o por medio de otras personas, ayuda, asistencia o asesoramiento con respecto al diseño, comercialización, organización, puesta a disposición para su ejecución o gestión de la ejecución de un mecanismo transfronterizo. Cuando intervengan varios intermediarios, todos deben comunicar salvo prueba de que la misma información ya ha sido comunicada por otro de aquellos. El contribuyente interesado es el obligado a comunicar únicamente cuando no hay ningún intermediario pues el mecanismo se ha gestado y ejecutado en el seno de la empresa o cuando todos los intermediarios han quedado dispensados de esta obligación por las normas nacionales sobre secreto profesional.

La información a comunicar parece ceñirse a la identificación de las operaciones, sus características y el valor de las mismas.

3.- Conclusiones

Nos hallamos ante una Directiva trascendente en la corriente de revisión de las prácticas de planificación fiscal, pero que adolece de una imprecisión de partida pues mezcla la información, la prevención y la lucha contra el fraude fiscal sin aclarar los límites entre estas categorías y renunciando a cualquier intento de que el sistema que establece sirva para proporcionar mayor seguridad jurídica. A contrario, se advierte que la comunicación de esta información no sirve para obtener un grado de confianza previa sobre la validez que la Administración tributaria otorga a estos mecanismos. De esta manera, la Directiva puede tener una implantación confusa en los distintos Estados y curiosamente podría ayudar a la competencia fiscal entre éstos y suponer un obstáculo en el funcionamiento del mercado interior al dejar aparte los mecanismos puramente domésticos.

En el caso de España, la trasposición de la Directiva reavivará sin duda dos viejos problemas nunca resueltos: la noción de asesor fiscal y cuál es el sentido y el ámbito de su secreto profesional. Por otro parte, al diferenciar en cierto modo la llamada planificación fiscal afectará a la propia organización interna de la profesión.

Sobre el origen intelectual de blockchain (II). Los precursores próximos

En la primera parte de este post por entregas sobre los antecedentes intelectuales de blockchain recordé dos personajes a los que califiqué como precursores remotos: Alan Turing y John von Neumann. En esta segunda parte me ocuparé de dos precursores más próximos: Tim May y David Chaum (y dejaré para una tercera a Nick Szabo y Wei Dai).

De los ominosos años de la segunda guerra mundial y la guerra fría nos trasladamos ahora a la década de los ochenta y noventa: un contexto político, socio-económico y tecnológico muy diferente. Tras la caída del muro y la descomposición del bloque del Este, de lo que se habla es de “fin de la historia” (en el sentido de abandono de las utopías marxistas) y de globalización; y en el ámbito tecnológico, de microprocesadores cada vez más potentes, de Internet, y de telefonía móvil.

Como recordarán, en los primeros años de la irrupción de Internet en nuestra sociedad se concibió por muchos la expectativa de grandes cambios culturales, sociales y políticos. La realización de los grandes sueños de la Ilustración parecía más cerca que nunca: un mundo compartimentado en agresivos Estados nacionales y controlado por las grandes multinacionales podía dar paso, gracias a esta nueva tecnología, a una verdadera comunidad humana universal, unida por la comunicación, la circulación de la información sin intermediarios y el fácil acceso al conocimiento. Por supuesto, esta comunidad en el ciberespacio tendría su faceta económica: un comercio universal, que vendría a difundir la prosperidad por todo el planeta.

Sin embargo, aunque el cambio en los hábitos sociales que ha traído consigo Internet y la telefonía sin hilos ha sido muy intenso, pronto se constató que la difusión de las nuevas tecnologías no llevaba consigo los cambios políticos que algunos esperaban. Los Estados nacionales no han desaparecido, sino que, precisamente, han encontrado en la tecnología digital una nueva arma de control de la ciudadanía con la excusa de un radicalismo y terrorismo globalizado que también ha sabido aprovecharse de la tecnología para sus propios fines, completamente ajenos a esa difusión de la ilustración que se suponía iba a traer consigo Internet. También en lo económico se ha podido constatar que globalización no es sinónimo de prosperidad general. Unas multinacionales han sucedido a otras, pero la concentración del poder económico no ha disminuido, sino que más bien se ha incrementado. En nuestros días, unas pocas empresas nacidas de las nuevas tecnologías como Apple, Microsoft, Google, Facebook o Amazon gozan de una penetración social y de una capacidad de influencia y de control como nunca habían existido antes.

Esto, que empezaba a gestarse ya en los años noventa, ha dado lugar a que ese pensamiento un tanto visionario y utópico propio de los primeros tiempos de Internet haya pasado –por así decirlo- a la resistencia, transformado en un activismo y una ideología contestataria y antisistema, pero desde dentro y con herramientas propias del universo digital. Aparecen así los hackers –rodeados, como todos los piratas y rebeldes, de una aureola de romanticismo-, los cyberpunks y, por lo que ahora nos interesa, los cypherpunks o criptoanarquistas, una corriente ideológica que reinvindica el acceso de los particulares a la criptografía, a las técnicas de cifrado o encriptación de la información, frente a las pretensiones de monopolizar el uso de esta tecnología por las agencias de seguridad nacionales.

La criptografía a que me estoy refiriendo es la criptografía de base matemática, que es la criptografía moderna, propia del mundo de la tecnología informática, de la aplicación de la electrónica a la computación, es decir, algo que empieza a desarrollarse sólo a partir de la mitad del siglo pasado. Anteriormente, las técnicas de cifrado eran mucho más rudimentarias: desde los códigos elementales consistentes en un simple algoritmo de sustitución de letras que empleaba Julio César en sus comunicaciones en campaña, hasta la encriptación electromecánica de los mensajes de telegrafía o de radio mediante la máquina Enigma de la inteligencia militar alemana durante la Segunda Guerra Mundial, que se basaba en el juego con las posiciones variables de los rotores de una máquina fabricada en serie que convertían unos caracteres alfabéticos en otros. La colocación de los rotores de la máquina de la que dispone el destinatario del mensaje en la misma posición en que se colocaron los rotores en la máquina del emisor es lo que permite el descifrado. Por tanto, se trataba de un sistema de cifrado de clave única o simétrica de naturaleza mecánica, que se iba cambiando cada cierto tiempo y que planteaba el problema de que dependía de la existencia de una información previa compartida por emisor y receptor acerca de la clave que se emplea en cada momento –es decir, la concreta disposición de los rotores que se está empleando en un momento dado-, información que podía ser interceptada por el enemigo y aprovechable por éste si disponía de un ejemplar del mismo modelo de máquina. La criptografía matemática se basa, por el contrario, en operaciones aritméticas o de cómputo o cálculo matemático que se aplican sobre mensajes digitalizados o numerizados, es decir, que se han convertido previamente en números. Gracias a los ordenadores –máquinas que operan a velocidad electrónica, es decir, a una velocidad próxima a la de la luz- es posible el uso práctico de estas técnicas de encriptación y desencriptación cuyo empleo requiere la realización veloz de estas muy complejas operaciones de cómputo numérico (que suelen tener por objeto grandes números primos, cuyo producto es muy difícil de factorizar).

En un primer momento, los gobiernos, en particular el estadounidense a través de la NSA (National Security Agency), trataron de reservarse el conocimiento y uso de esta tecnología que tan vital había resultado durante la guerra, evitando su difusión para el uso comercial y por el público en general. Sin embargo, a mediados de los años setenta, tras una complicada pugna con la NSA, la compañía IBM registró en la oficina nacional de estándares estadounidense un algoritmo estándar de cifrado conocido como DES (Data Encryption Standard), que sería puesto a disposición de las empresas del sector financiero (que lo requerían para el desarrollo de su red de cajeros automáticos), y cuyo conocimiento y difusión pública generó un creciente interés por la moderna criptografía matemática más allá del coto cerrado de los servicios de seguridad. En esa misma década, accedió también al conocimiento público el revolucionario descubrimiento de la criptografía asimétrica o de clave pública (primero el algoritmo de Diffie-Hellman, y luego el algoritmo RSA, de Rivest, Shamir y Adleman, que lo desarrollaron por primera vez en 1977), que resuelve el grave problema de vulnerabilidad al que me he referido que conlleva la distribución de las claves en los tradicionales sistemas de criptografía simétrica, una técnica que es precisamente vital para permitir las comunicaciones seguras entre desconocidos, lo que a su vez es imprescindible para el desarrollo de transacciones económicas en Internet.

Ya en los años noventa, nos encontramos en la vanguardia de este movimiento criptolibertario con un personaje llamado Timothy C. May –más conocido como Tim May-. Este hippie tecnológico californiano, que en su día fue un reputado ingeniero electrónico y científico que trabajó para Intel, publicó en una fecha tan temprana digitalmente hablando como el año 1992 el “Manifiesto Criptoanarquista”, un breve texto en el que anunciaba que la informática estaba al borde de proporcionar la capacidad a individuos y grupos de comunicarse e interactuar entre ellos de forma totalmente anónima. Dos personas pueden intercambiar mensajes, hacer negocios y concertar contratos electrónicos, sin saber nunca el nombre auténtico, o la identidad legal, de la otra. Las interacciones sobre las redes serán intrazables, gracias al uso extendido de re-enrutado de paquetes encriptados en máquinas a prueba de manipulación que implementen protocolos criptográficos con garantías casi perfectas contra cualquier intento de alteración. Las reputaciones tendrán una importancia crucial, mucho más importante en los tratos que las calificaciones crediticias de hoy en día. Estos progresos alterarán completamente la naturaleza de la regulación del gobierno, la capacidad de gravar y de controlar las interacciones económicas, la capacidad de mantener la información secreta, e incluso alterarán la naturaleza de la confianza y de la reputación.(…) Los métodos están basados en el cifrado de clave pública, sistemas interactivos de prueba de cero-conocimiento, y varios protocolos de software para la interacción, autenticación y verificación. El foco hasta ahora ha estado en conferencias académicas en Europa y EE.UU., conferencias monitorizadas de cerca por la Agencia de Seguridad Nacional. Pero solo recientemente las redes de computadores y ordenadores personales han alcanzado la velocidad suficiente para hacer las ideas realizables en la práctica…”.

En los años siguientes, Tim May fue el impulsor y principal contribuyente de textos a varios foros de Internet dedicados a la criptografía y a la ideología criptoanarquista (Cypherpunks electronic mailing links y Cyphernomicon), y es uno de los referentes intelectuales explícitos en el círculo de sujetos involucrados en el diseño de las primeras criptomonedas (como Nick Szabo o Wei Dai).

Con un enfoque no tan político sino más técnico y también de negocio nos encontramos al siguiente personaje, también californiano: David Lee Chaum, un brillante matemático e informático que ya desde los años ochenta fue creando novedosos protocolos criptográficos susceptibles de aplicación en el ámbito del comercio, los pagos e incluso la votaciones on line. En concreto, a él se debe el protocolo conocido como de “firma ciega”, que es el equivalente digital a esas votaciones que se hacen introduciendo un sobre anónimo con la papeleta dentro de otro sobre donde se identifica al votante.

La motivación de Chaum para la creación de este tipo de protocolos fue su preocupación por la privacidad de las transacciones económicas, algo que se estaba perdiendo a medida que se generalizaban los medios electrónicos de pago. Así, una de las propiedades esenciales del tradicional dinero efectivo en forma de monedas metálicas o billetes de papel es su carácter anónimo, de dinero al portador. Por el contrario, todas las nuevas formas de movilizar el dinero representado en cuentas bancarias, mediante transferencias, tarjetas de crédito, pasarelas de pago en Internet, etc. permiten el seguimiento de quién paga qué cantidad a quién y por qué. Y ello hace que un número creciente de datos que pueden revelar mucho sobre mis preferencias y hábitos de consumo y en definitiva sobre mi personalidad, quedan registrados y terminan en una base de datos digital que escapa completamente a mi control.

No voy a detenerme en explicar pormenorizadamente en qué consiste técnicamente el protocolo de firma ciega ideado por Chaum y que éste expuso en una conferencia del año 1982 con el título Blind signatures for untraceable payments. En definitiva, se trata de que un determinado sujeto o autoridad marque con su firma electrónica un concreto ítem digital generado por otro sujeto sin que el primero conozca el contenido del ítem marcado, pero sí de quién procede y de qué tipo de ítem se trata. ¿Y esto para qué sirve? Pues en actuaciones en que interesa que intervenga un tercero verificador o validador, por ejemplo, una autoridad electoral que verifique que quien va a emitir un voto on line está legitimado para votar y sólo vota una vez, pero de manera que esa autoridad verificadora no conozca el contenido del voto validado, dada la necesidad de preservar el secreto de la votación. Tratándose de dinero electrónico, el tercero verificador es el banco que lleva la cuenta del sujeto que pretende generar un ítem o token dinerario digital, porque ese banco es el que verifica si el sujeto emisor tiene saldo suficiente y debe dar de baja el importe correspondiente en su cuenta para evitar la doble disposición. ¿Y en este ámbito para qué sirve un protocolo de firma ciega? Pues para que el banco, una vez realizada la indicada verificación de la legitimación dispositiva del emisor, pueda marcar como válido el token dinerario emitido sin conocer el concreto número de serie que identifica individualmente a éste y permite su control. De esta manera, cuando el sujeto que ha recibido el pago presente un determinado token con su concreto número de serie a este mismo banco para su canje por dinero ordinario, el banco no sabe cuál de sus clientes fue el emisor de ese token y por tanto quién realizó ese concreto pago.

¿Y cómo se consigue que el banco firme un determinado ítem dinerario sin conocer el número de serie que lo individualiza? Aquí es donde interviene el ingenio matemático de Chaum: el emisor, es decir, el cliente del banco que quiere hacer un pago con efectivo electrónico, genera aleatoriamente un número de serie x y antes de remitirlo con su solicitud al banco lo envuelve o disfraza multiplicándolo por un factor C que sólo él conoce. O dicho de otra forma, el emisor envía al banco un número de serie encriptado mediante una función o algoritmo conmutativo C(x), que es reversible realizando la operación aritmética inversa, en este caso, la división C’ por el mismo factor. El banco validador, una vez verificada la legitimación dispositiva del emisor, aplica su firma electrónica con su clave privada S’ a ese número de serie encriptado y remite el resultado, S’(C(x)), al emisor. Éste aplica ahora la división inversa a la multiplicación mediante la que encriptó el número de serie, C’(S’(C(x))), y obtiene S’(x), es decir, el número de serie original con la firma electrónica del banco, o lo que es lo mismo un billete de banco electrónico que se puede emplear para realizar un pago sin que el banco conozca quién ha sido el generador de ese concreto billete. Por tanto, algo absolutamente análogo a la emisión de billetes de banco contra depósitos en efectivo metálico, pero en un entorno digital.

El propio David Chaum intentó llevar a la práctica esta idea con la creación de la empresa DigiCash, con sede en Amsterdam, en el año 1989, un negocio que no llegó a ir bien (de hecho, sólo dos bancos se adhirieron al proyecto: un banco de Missouri llamado Mark Twain Bank, y el Deutsche Bank, no hubo más de 5.000 clientes y el volumen total de pagos no pasó de los 250.000 $). Según explicaría su creador, fue difícil conseguir que un número suficiente de comerciantes aceptasen este medio de pago, de manera que hubiese un número suficiente de consumidores que lo utilizasen, o viceversa. David Chaum se convirtió en un héroe para los criptoanarquistas o cryptoliberterians, pero el problema fue que al consumidor medio no le termina de preocupar demasiado el tema de la privacidad de sus transacciones. Al final, DigiCash quebró y tuvo que vender todos sus activos en el año 1998.

En cualquier caso, lo que me interesa de esta experiencia es que el dinero efectivo electrónico que ideó David Chaum sigue dependiendo del dinero de curso legal ordinario (porque siempre se parte de y se termina en una cuenta bancaria en dólares, euros o cualquier otra divisa estatal); y que el control contable que evita el doble gasto sigue encomendado al sistema bancario tradicional, pues es un banco el que comprueba la legitimación del emisor y da de baja en cuenta la cantidad emitida de cash electrónico.

La futura criptomoneda Bitcoin supondrá un cambio absolutamente radical de modelo.

(La obra pionera sobre criptografía matemática es un artículo de Claude Shannon “Communication Theory of Secrecy Systems”, publicado en el año 1949 en el Bell System Technical Journal, y el libro de Shannon y Warren Weaver “Mathematical Theory of Communication”.

Una explicación del funcionamiento de la máquina Enigma y una narración de las curiosas peripecias de la lucha criptográfica durante la Segunda Guerra Mundial en una obra que ya cité en el anterior post: “Alan Turing. El pionero de la era de la información”, de B. Jack Copeland, Turner Noema, Madrid, 2012, págs. 51 y ss.

Sobre la lucha de los primeros criptoanarquistas contra la NSA: “Cripto. Cómo los informáticos libertarios vencieron al gobierno y salvaguardaron la intimidad en la era digital”, de Steven Levy, Alianza Editorial, 2001.)

Sobre el origen intelectual de blockchain (I). Los precursores remotos

En mi anterior aportación a este blog aludí a ciertos obstáculos intelectuales con los que podemos tropezar los juristas a la hora de enfrentarnos al concepto de smart contract y al fenómeno blockchain en general, siendo el primero de ellos un déficit de formación tecnológica. Precisamente, una de las peculiaridades de esta tecnología, de cuyas múltiples aplicaciones y potencial disruptivo habla todo el mundo, es que presenta un considerable umbral intelectual de acceso: es algo que cuesta explicar y comprender.

En este post y en el siguiente voy a intentar aportar un poco de perspectiva sobre el asunto, lo que quizá pueda ayudar a discernir la señal –lo significativo- de todo el ruido mediático que ahora mismo está provocando tantas interferencias.

En concreto, en el par de posts que he previsto voy a hacer referencia a algunos personajes cuyas aportaciones intelectuales han sido importantes en el camino que ha llevado tanto a las criptomonedas como a blockchain. Al respecto, distinguiré uno precursores remotos y unos precursores próximos.

Como precursor remoto podría aludir al filósofo alemán Leibniz, que a finales del siglo XVII, además de fabricar una calculadora universal mecánica, concibió la idea de una máquina que almacenaba y manejaba información codificada en código digital binario. Pero me voy a centrar en dos personajes más cercanos, que vienen siendo considerados como los padres fundadores de la informática: el británico Alan Turing y el húngaro nacionalizado estadounidense John von Neumann. ¿Y por qué los traigo a colación? Pues no sólo porque en los años treinta y cuarenta del pasado siglo sentaron las bases intelectuales, de naturaleza lógico-matemática, que dieron lugar al desarrollo de la informática y con ella del universo digital en que ahora habitamos, sino porque, además, algunas de sus ideas y visiones anticiparon gran parte de la transformación que justo ahora estamos viviendo.

Alan Turing es conocido en nuestros días por el gran público sobre todo por una película reciente (The Imitation Game -“Descifrando enigma”, en España-, del año 2014) dedicada a su actividad durante la Segunda Guerra Mundial en el servicio de inteligencia de la Marina británica, donde contribuyó a descifrar los códigos de la célebre máquina de encriptación Enigma que empleaban en sus comunicaciones la armada y el ejército alemán. Esto ya nos resulta interesante por su relación con el tema de la criptografía. Pero, sobre todo, quiero hacer referencia al trabajo que le hizo célebre, publicado en el año 1936 en la prestigiosa revista Proceedings of the London Mathematical Society: “Sobre los números computables, con una aplicación al Entscheidungsproblem”.

El Entscheidungsproblem o problema de la decidibilidad es una ardua cuestión lógico-matemática que tuvo ocupados a algunos lógicos y filósofos a principios del siglo XX desde que el matemático alemán David Hilbert la plantease en un escrito programático del año 1900 como uno de los retos pendientes para la centuria que entonces comenzaba: ¿es posible que la matemática dé una respuesta de tipo demostrativo a todos los problemas que ella misma plantea? O dicho de otra forma, ¿es posible la axiomatización plena de la matemática para reconstruirla como un sistema completo y autoconsistente? Hilbert, adalid de lo que se conoce como formalismo lógico, pensaba que sí, y Russell y Whitehead creyeron haberlo logrado con su obra Principia Mathematica. Sin embargo, un ensimismado profesor de lógica austriaco llamado Kurt Gödel demostró que no era posible en un difícil y revolucionario artículo publicado en el año 1931, donde formuló lo que se conoce como el teorema de incompletitud de Gödel.

En la estela de Gödel, en el citado trabajo Turing –como una simple estrategia discursiva en relación con el problema de los límites de la computabilidad- concibió la primera máquina –que sería conocida como la “máquina universal de Turing” y que por entonces era sólo una construcción teórica- de “programa almacenado”, es decir, dotada de una memoria que no sólo conservaría datos, sino también el propio programa para el manejo o cómputo de esos datos, una máquina que sería reprogramable y capaz de computar todo lo computable (es decir, lo que hoy entendemos por un ordenador). Tampoco puedo dejar de mencionar su temprano interés por la inteligencia artificial, hasta el punto de que hoy se sigue empleando el llamado “test de Turing” para evaluar la mayor o menor inteligencia de un dispositivo.

Pues bien, cuando en el año 2014 ese niño prodigio ruso-canadiense llamado Vitalik Buterin, con tan solo 19 años, pone en marcha esa blockchain de segunda generación llamada Ethereum, nos va a decir que se trata de una blockchain que utiliza un lenguaje de programación Turing-completo, y que aspira a convertirse en la máquina universal de programación, the World Computer. Esto supone precisamente llevar la idea originaria de Turing a una nueva dimensión: no se trata de crear una máquina individual reprogramable de objeto de cómputo universal, sino de la existencia de una red tendencialmente universal de ordenadores que no sólo registran de forma simultánea esos mensajes sencillos que son las transacciones de bitcoins, sino que en ellos se puede ejecutar a la vez cualquier operación que sea programable, conservándose todos los pasos del proceso y su resultado en un registro distribuido, transparente, no manipulable y de acceso universal. O dicho de otra forma, no sólo universalidad en cuanto al objeto programable –como la máquina virtual de Turing y nuestros actuales ordenadores-, sino también universalidad en cuanto a los agentes o dispositivos que operan, ya que el programa se ejecuta y su resultado se registra simultáneamente por una infinidad de ordenadores repartidos por todo el mundo.

En cuanto a John von Neumann, se trata de uno de los grandes genios científicos del siglo XX, de un nivel comparable al de un Einstein. En lo que concierne a nuestro tema, von Neumann fue el creador de la estructura lógica de una de las primeras computadoras digitales electrónicas de alta velocidad y memoria almacenada con la que se hizo realidad la imaginada máquina universal de Turing. Esa computadora, conocida por las siglas EDVAC, fue fabricada a finales de los años cuarenta en el Instituto de Estudios Avanzados de Princeton (USA), como instrumento para la realización de los complejos y laboriosísimos cálculos matemáticos que requería el diseño y control de las primeras bombas atómicas. De hecho, todavía hoy la estructura de todos los ordenadores que utilizamos obedece a lo que se conoce como “arquitectura von Neumann”, que distingue la memoria, el procesador, la unidad central de control y los elementos de comunicación con el exterior para la entrada y salida de datos.

Pues bien, aparte de que cualquier aplicación o desarrollo de la tecnología informática es deudora -pese a su prematura muerte con 53 años- de las visiones y concepciones de von Neumann (incluso la inteligencia artificial, que fue el objeto de sus últimas reflexiones en obras como la “Teoría de los autómatas autorreproductivos”), quiero referirme aquí a dos ideas de este gran pionero de la informática.

En primer lugar, en los años que siguieron al final de la Segunda Guerra Mundial había escasez de casi todo y para la construcción del EDVAC se tuvo que echar mano de equipos y materiales de desecho de la industria bélica. Conseguir que funcionase correctamente una máquina fabricada ensamblando ese tipo de elementos fue un verdadero reto al que se enfrentó Von Neumann con la idea de que había que construir una máquina fiable a partir de miles de componentes no fiables. Esta idea, que desarrolló teóricamente en dos artículos de los años 1951 y 1952 (“Organizaciones fiables de elementos no fiables” y “La lógica probabilística y la síntesis de organismos fiables a partir de componentes no fiables”), enlaza con la formulación, ya en los años ochenta y en relación con la fiabilidad de las redes de ordenadores creadas con fines de defensa, de lo que se conoce como el “problema de los generales bizantinos” –al que se suele aludir en las explicaciones de blockchain-. Por supuesto, tiene que ver también con un concepto que hoy está en boca de todos con el nombre de “resiliencia”; y se encuentra en el mismo núcleo del diseño de blockchain: cómo crear el sistema de registro más fiable y transparente que haya existido nunca partiendo sólo de agentes individuales particulares cualquiera de los cuales podría ser un tramposo.

En relación con el diseño de blockchain también podemos rastrear la huella de otra gran aportación intelectual de von Neumann. Como éste estaba dotado de una inteligencia universal, no sólo se interesó por y revolucionó la lógica de conjuntos, la física cuántica y la ciencia de la computación, sino que también hizo su incursión –no menos revolucionaria- en la ciencia económica, donde fue el pionero de la teoría de juegos, con una obra de la que fue coautor junto con Oskar Morgenstern en el año 1944 con el título “Teoría de juegos y comportamiento económico”. Pues bien, mucho de teoría de juegos, de análisis de la racionalidad de las decisiones estratégicas de los agentes individuales que operan en una economía teniendo en cuenta los comportamientos probables de los demás agentes, está también presente en el inteligente diseño que explicó el enigmático Satoshi Nakamoto en su paper del año 2008. En último término, una blockchain pública como la que sirve de base a Bitcoin está diseñada partiendo de la idea de que la persecución del interés individual de ganancia de unos agentes -los “mineros”- redunda en la fiabilidad general del sistema; así como en la idea de que resulta muy poco racional defraudar un sistema para obtener un activo cuyo valor económico depende directamente de la confianza general en la fiabilidad de ese sistema.

(Recomiendo a quien sienta curiosidad por estos temas la lectura de los siguientes libros, disponibles en nuestro idioma: “La catedral de Turing. Los orígenes del universo digital”, de George Dyson, Debate, Barcelona, 2015; “Alan Turing. El pionero de la era de la información”, de B. Jack Copeland, Turner Noema, Madrid, 2012; y “Gödel. Paradoja y vida”, de Rebecca Goldstein, Antoni Bosch, Barcelona, 2010.)

Fiscalidad de la economía digital: el paquete europeo.

El 21 de marzo pasado la Comisión Europea ha publicado un conjunto de propuestas normativas y medidas sobre la fiscalidad de la economía digital, mediante el que trata de fijar una posición de partida en la negociación internacional esperada sobre esta cuestión, cuando la OCDE ha preferido reconocer la ausencia de un consenso suficiente.

Este paquete incluye fundamentalmente dos propuestas de directiva. Por un lado, encontramos una propuesta de Directiva por la que se establecen normas relativas a la fiscalidad de las empresas con una presencia digital significativa. Por otro, se anuncia una propuesta de Directiva relativa al sistema común del impuesto sobre los servicios digitales que grava los ingresos procedentes de la prestación de determinados servicios digitales. Es decir, hallamos una propuesta de Directiva por la que se prevé la creación de un nuevo impuesto en cada Estado miembro que grave los ingresos procedentes de tales servicios, como solución transitoria mientras no sea posible la aprobación de la Directiva sobre la presencia digital significativa, por falta de consenso a nivel europeo o a nivel internacional. El paquete se completa con una Recomendación de la Comisión aprobada el mismo 21 de marzo, por la que se sugiere a los Estados que incorporen a sus convenios de doble imposición con terceros Estados los principios y criterios que guían a nivel de la Unión la idea de presencia digital significativa. Y todo ello se cierra con una Comunicación de la Comisión al Parlamento de la Unión y al Consejo acerca de los antecedentes y razones de la reforma propuesta.

De esta manera, la Comisión Europea da un paso más en su objetivo político de lograr una armonización del impuesto sobre sociedades y se anticipa en este debate global al proponer un plan en dos etapas. Ante la falta de un consenso sobre la tributación de estas rentas, la Comisión propone la aplicación en un primer momento de un impuesto que grava en realidad ingresos a un tipo del 3 por 100. Este nuevo Impuesto sobre los servicios digitales (ISD) gravaría los ingresos procedentes de la prestación de ciertos servicios digitales y sólo cuando son prestados por ciertas entidades con un volumen de negocio relevante. En concreto, son servicios imponibles, en la terminología de la Directiva, los prestados a través de un interfaz digital que tengan carácter publicitario o que permitan localizar a otros usuarios o interactuar con ellos, así como la transmisión de los datos recopilados acerca de los usuarios que hayan sido generados por actividades desarrolladas por dichos usuarios en los interfaces digitales. Tales servicios son imponibles cuando el proveedor es una entidad con un total de ingresos mundiales que supere los 750 millones de euros y con unos ingresos imponibles en la Unión que excedan de 50 millones de euros.

Sin embargo, la Comisión reconoce que este impuesto constituye una solución provisional y propone al mismo tiempo una Directiva sobre la tributación en el impuesto sobre sociedades de aquellas empresas con una presencia digital significativa, una noción que supone una reconfiguración ad hoc de la vieja noción de establecimiento permanente.

Esta propuesta de Directiva asume que la aplicación de las actuales normas del impuesto sobre sociedades a la economía digital “ha dado lugar a un desajuste entre el lugar donde tributan los beneficios y el lugar en el que se crea el valor”. En consecuencia, se reconoce con claridad que sería necesaria una reforma de los principios de la fiscalidad internacional para adaptarlos a una economía en la que son fundamentales los activos intangibles y el valor de los datos y siempre con el objetivo de gravar la renta donde se genera la riqueza. Se admite que los esquemas tradicionales impiden gravar la renta de un no residente en ausencia de una presencia física de éste y se reconoce que los principios por los que se rige el sistema de precios de transferencia conducen a una infravaloración de las funciones y riesgos asociados a la economía digital. Ni siquiera los criterios de la BICC servirían para lograr que los Estados donde se hallan los usuarios de la economía digital puedan ver reconocida una participación mayor en el gravamen de las rentas derivadas de esta nueva economía.

Ante este reto, la propuesta de Directiva ofrece la idea de esta “presencia digital significativa”, como nuevo supuesto que amplía el concepto de establecimiento permanente. Sin embargo, éste sólo atrae las rentas derivadas, no de la economía digital, sino de la prestación de ciertos servicios digitales, los prestados a través de Internet o de una red electrónica y que, por su naturaleza, están esencialmente automatizados y requieren una intervención humana mínima, y que no puedan prestarse sin tecnología de la información. La propuesta detalla una serie de servicios incluidos en esta noción como el suministro de productos digitalizados en general, los que permitan o apoyen la presencia de particulares o empresas en una red electrónica o los generados automáticamente desde un ordenador, a través de Internet o de una red electrónica, en respuesta a una introducción de datos específicos efectuada por el cliente, así como los enumerados en el anexo II. En cambio, los servicios digitales no incluirán los enumerados en el anexo III, que afecta esencialmente a servicios prestados a través de Internet, o la venta de bienes u otros servicios facilitados por el uso de Internet.

Esta presencia digital significativa exige también que se alcancen unos umbrales cuantitativos, destacando un número de usuarios superior a 100.000 o un número de contratos entre empresas para la prestación de tales servicios digitales superior a 3.000, en ese Estado miembro.

La propuesta de Directiva no sólo altera la noción de establecimiento permanente sino que reconoce que el problema se halla también, o sobre todo, en las reglas de atribución de rentas y por ello, establece reglas propias para tal atribución en este caso, incluyendo entre los riesgos y funciones las actividades significativas desde el punto de vista económico a través del interfaz digital, sobre todo en relación con datos o usuarios o que sean relevantes para la explotación de los activos intangibles de la empresa.  El beneficio imputable se calculará aplicando preferentemente el método de distribución del beneficio.

En suma, uno de los principales problemas de este paquete fiscal no es otro que la falta de consenso o acuerdo internacional que hace muy difícil aplicar estos principios y conceptos en las relaciones de los Estados Miembros con terceros países. En este sentido, la Recomendación de la Comisión resulta muy voluntarista al pretender incorporar esta solución en tales relaciones con terceros países a través de la negociación de los convenios de doble imposición que, por otra parte, se admite que en otro caso prevalecerían impidiendo aplicar una solución global armónica. Y para alcanzar esa solución en el marco de la OCDE o en otro al efecto, nos hallaremos con los obstáculos derivados de los diferentes intereses de los países afectados, según la tipología de sus empresas.

Los Presupuestos “más sociales” de la historia.

La presentación del proyecto de Presupuestos Generales del Estado para 2018 insiste en que su principal prioridad es el gasto social. Se remarca la “clara vocación social” de los presupuestos (en sintonía, se dice, con lo que siempre ha sido la política presupuestaria del Gobierno desde el año 2012), y la apuesta por “seguir reforzando el gasto social”, hasta el punto de que se afirma, como se recoge en el título de esta tribuna, que son los “presupuestos más sociales de la historia”. Sin arriesgarme a afirmaciones tan categóricas, sí que creo que, desde el punto de vista del gasto social, difícilmente se podía llegar más allá en la actual situación económica. Si en relación con los presupuestos de 2016 pude decir, al hilo precisamente del análisis de sus contenidos sociales, que desprendían un “leve aroma socialdemócrata”, ahora ese aroma es ya intenso y penetrante. Cautivo y desarmado el ejército liberal, la socialdemocracia impera ya en nuestra política económica de manera arrogante.

A destacar, en ese sentido, la subida de las pensiones más bajas, con mejora de las mínimas en un 3 por 100 (y con incrementos de entre el 1 y el 1,5 por 100 para otras pensiones de importe inferior a 12.000 euros brutos anuales), la mejora de las de viudedad (incrementando su base reguladora en dos puntos, desde el 52 por 100 al 54 por 100, para mayores de 65 años), la creación de nuevos “cheques sociales” (de natalidad, mediante el incremento, con carácter general, de la deducción de 1.200 euros anuales en 600 euros por cada hijo en las familias que tengan la consideración de numerosas, y de guardería, permitiendo la deducción de hasta un máximo de 1.000 euros por año para las madres trabajadoras por gastos de guardería de niños entre cero y tres años) y la ampliación de los familiares (incluyendo una nueva deducción de 1.200 euros anuales por cónyuge con discapacidad).

Junto a ello, y sobre todo, hay que destacar los incrementos retributivos de los empleados públicos, con una subida del 1,75 por ciento para el año 2018. Esta subida, que se enmarca en el acuerdo suscrito con los sindicatos de la función pública para el periodo 2018-2020, se complementa con otros incrementos retributivos variables vinculados a la evolución del PIB y al cumplimiento, en el año 2020, del objetivo de estabilidad. De cumplirse todas las condiciones, la mejora retributiva en el empleo público alcanzaría, en el periodo contemplado, el 8,79 por ciento. Esto, aparte del vuelco que representa en las políticas retributivas del empleo público de los últimos años, constituye un mensaje, no desdeñable, al sector privado, en el que los sindicatos difícilmente van a resignarse a mejoras retributivas inferiores a las previstas para el sector público. El Gobierno parece pues querer pasar página de las políticas de moderación salarial, al menos en sus manifestaciones más incisivas.

Al mismo tiempo, se aprueba una tasa de reposición que puede llegar al 108 por 100: será, como regla general del 100 por 100 siempre que las Administraciones cumplan con el objetivo de déficit, deuda y regla del gasto, y a ello se añade una bolsa adicional del 8 por 100 destinada a los ámbitos o sectores que requieran un refuerzo de efectivos. Además, las corporaciones locales podrán contar con una tasa adicional del 10 por 100, siempre que tuvieran amortizada su deuda a 31 de diciembre del ejercicio anterior. De todas formas, en caso de incumplimiento por las Administraciones Públicas de alguno de los objetivos, la tasa de reposición del 100 por 100 se mantendrá exclusivamente para los sectores prioritarios, bajando al 75 por 100 en el resto de los sectores, con una bolsa adicional del 5 por 100 para los servicios que se considere necesario reforzar. La tasa de reposición, finalmente, será del 115 por 100 para Fuerzas y Cuerpos de Seguridad del Estado, Policía Autonómica y Policía Local, y del 30 por ciento de las vacantes para funcionarios con habilitación de carácter nacional bajo determinadas circunstancias. En todos los municipios habrá una tasa adicional del 5 por 100 si en alguno de los ejercicios del periodo 2013 a 2017 han tenido la obligación legal de prestar un mayor número de servicios públicos por el incremento de su población. A pesar de los matices y de los márgenes de discrecionalidad abiertos, parece que también la contención del empleo público ha llegado a su fin.

Todos estos datos ponen de manifiesto que apenas bajadas las aguas y pudiendo sacar la cabeza y respirar mejor, volvemos a lanzarnos a políticas de gasto, cuanto menos discutibles en su oportunidad y alcance. Si a todo ello unimos la ampliación del permiso de paternidad a cinco semanas, la mejora en la dotación de las becas estudiantiles (con incremento de la partida en 50 millones de euros), el aumento (en 46 millones de euros) de los recursos destinados a la dependencia, la mayor dotación a las Comunidades Autónomas para los servicios públicos fundamentales (más de 4.000 millones de euros, con incremento superior al 4 por 100) y la permisión de inversiones municipales con cargo al superávit presupuestario (me niego a incluir entre las medidas sociales la rebaja del IVA del cine, que servirá para rebajar el diapasón crítico en la gala de los Goya, o no, como diría el Presidente, pero que si puede tener una finalidad cultural la social no la veo por ningún lado), el panorama socialdemócrata es incontestable.

La recaudación tributaria va a crecer un 6% y el ajuste del gasto, que sigue siendo imprescindible, ni aparece. Y por supuesto, revertir el hachazo fiscal que so pretexto de la urgencia de la crisis se propinó a los ciudadanos, ni pensarlo. Probablemente sí que sean unos de los Presupuestos más sociales de la historia y resultan encomiables las previsiones relativas al empleo, con la creación de 475.000 puestos de trabajo, reducción del paro en 339.000 personas (lo que llevaría la tasa de desempleo al 15 por ciento, todavía muy alejada de las tasas inferiores a los dos dígitos en las que llegamos a movernos) y la consecución de los 19,5 millones de empleados, cerca ya del objetivo de los veinte millones, necesario para la sostenibilidad del sistema de protección social. Pero no sé si a medio y largo plazo esta es la vía para garantizar el crecimiento económico sano y la estabilidad presupuestaria.

La difícil deducibilidad en el Impuesto sobre Sociedades de la remuneración de los consejeros ejecutivos de sociedades mercantiles

Desde que el Tribunal Supremo patrocinó la llamada “teoría del vínculo” mediante la denominada “sentencia Huarte” (STS, Sala 4ª – de lo Social- de 29 de septiembre de 1988) y, en particular, desde las sentencias posteriores que matizaron y confirmaron esta primera decisión (SSTS Sala 4ª, de 3 de junio de 1991 y 27 de enero de 1992), en nuestro sistema jurídico se entiende que el vínculo mercantil —que une a los consejeros ejecutivos que desarrollan a la vez funciones de alta dirección— absorbe al vínculo laboral que el alto directivo pudiera haber formalizado con la misma empresa. Así, a partir de ese momento los tribunales del orden social se manifestaron incompetentes para entender de las controversias planteadas por los administradores ejecutivos, pese a que formalmente hubieran sido contratados como altos directivos.

Con fundamento en dicha doctrina jurisprudencial, la Sala 3ª -de lo Contencioso-Administrativo- del Tribunal Supremo, en sus denominadas “Sentencias Mahou”, de 13 de noviembre de 2008 (números 7.057/2008 y 7.068/2008), fijó el criterio de no deducibilidad en el Impuesto sobre Sociedades de las remuneraciones de los administradores de las sociedades que no cumplieran los requisitos establecidos por la normativa mercantil, tales como la obligatoriedad, la fijación en los estatutos del carácter retribuido del cargo y el sistema concreto de retribución indicando su cuantía.

Con posterioridad, las Sentencias del Tribunal Supremo de fechas 21 de febrero de 2013, 26 de septiembre de 2013, y 5 de febrero de 2015, entre otras, confirmaron este criterio considerando que a falta de previsión estatutaria, la retribución percibida por un administrador es una liberalidad y por ende, no procede su deducibilidad fiscal.

Dicho criterio reiterado del Tribunal Supremo ha sido plenamente asumido por la Administración Tributaria y por el Tribunal Económico-Administrativo Central (TEAC). Como muestra de ello, se recoge a continuación el criterio seguido por el TEAC, entre otras, en dos de sus Resoluciones:

TEAC 06-02-2014 (Unificación de criterio):

En el supuesto de que se satisfagan retribuciones a los administradores, cuyo cargo sea gratuito según las disposiciones estatutarias, por la prestación de servicios de dirección, dichas cuantías tienen la consideración de gastos no deducibles con arreglo a lo dispuesto en el artículo 14.1.e) del Texto Refundido de la Ley del Impuesto sobre Sociedades, siendo sólo compatible la relación de carácter laboral por las funciones de gerencia o dirección con la de carácter mercantil del cargo de administrador, cuando las funciones que se realizan por razón de la primera sean distintas de las que llevan a cabo por razón del último cargo y se trate de una actividad específica diversa; en otro caso, ambas relaciones (la mercantil y la laboral) son incompatibles, debiendo prevalecer la calificación mercantil, y sólo se podrán percibir remuneraciones por dicha función cuando esté previsto en los estatutos sociales el carácter remunerado del cargo.

TEAC 05-07-2016:

Cuando resulte acreditado que las únicas funciones que realiza un administrador, además de las propias de la relación mercantil, son las tareas propias de un director gerente, debe prevalecer la calificación mercantil, no teniendo la consideración de gasto deducible la retribución que perciba por dicha función de dirección o gerencia de no estar prevista en los Estatutos Sociales remuneración del cargo de administrador.

No obstante lo hasta aquí expuesto, tanto la Ley 31/2014, de 3 de diciembre, por la que se modificó la Ley de Sociedades de Capital para la mejora del gobierno corporativo, como la Ley 27/2014, de 27 de noviembre, del Impuesto sobre Sociedades, introdujeron modificaciones relevantes en esta cuestión con efectos 1 de enero de 2015, que la doctrina interpretó que flexibilizaban los requisitos exigidos hasta el momento.

De un lado, el nuevo artículo 249 del Texto refundido de la Ley de Sociedades de Capital (LSC) señala lo siguiente:

“3. Cuando un miembro del consejo de administración sea nombrado consejero delegado o se le atribuyan funciones ejecutivas en virtud de otro título, será necesario que se celebre un contrato entre este y la sociedad que deberá ser aprobado previamente por el consejo de administración con el voto favorable de las dos terceras partes de sus miembros. El consejero afectado deberá abstenerse de asistir a la deliberación y de participar en la votación. El contrato aprobado deberá incorporarse como anejo al acta de la sesión.

4. En el contrato se detallarán todos los conceptos por los que pueda obtener una retribución por el desempeño de funciones ejecutivas, incluyendo, en su caso, la eventual indemnización por cese anticipado en dichas funciones y las cantidades a abonar por la sociedad en concepto de primas de seguro o de contribución a sistemas de ahorro. El consejero no podrá percibir retribución alguna por el desempeño de funciones ejecutivas cuyas cantidades o conceptos no estén previstos en ese contrato.

El contrato deberá ser conforme con la política de retribuciones aprobada, en su caso, por la junta general.”

Por otra parte, el artículo 15 de la nueva Ley del Impuesto sobre Sociedades (LIS) establece que:

“No tendrán la consideración de gastos fiscalmente deducibles:

a)………………………..

e) Los donativos y liberalidades.

No se entenderán comprendidos en esta letra e) los gastos por atenciones a clientes o proveedores ni los que con arreglo a los usos y costumbres se efectúen con respecto al personal de la empresa ni los realizados para promocionar, directa o indirectamente, la venta de bienes y prestación de servicios, ni los que se hallen correlacionados con los ingresos.

No obstante, los gastos por atenciones a clientes o proveedores serán deducibles con el límite del 1 por ciento del importe neto de la cifra de negocios del período impositivo.

Tampoco se entenderán comprendidos en esta letra e) las retribuciones a los administradores por el desempeño de funciones de alta dirección, u otras funciones derivadas de un contrato de carácter laboral con la entidad.

f) Los gastos de actuaciones contrarias al ordenamiento jurídico.”

Como resultado de las dos reformas (mercantil y fiscal) tanto por parte de la doctrina de forma mayoritaria, como por la Dirección General de los Registros y del Notariado en su Resolución de fecha 17 de junio de 2016, se ha interpretado que a partir de 1 de enero de 2015, cuando el órgano de administración adoptara la forma de consejo, la conformidad a Derecho de la retribución de aquellos consejeros que ejercieran funciones ejecutivas no requería su constancia en estatutos cuando existiera el contrato a que se refiere el artículo 249 de la LSC.

En consecuencia también se ha interpretado que, en el ámbito tributario, la existencia de dicho contrato resultaría suficiente para que las retribuciones del Consejero Delegado tuvieran la consideración de gastos fiscalmente deducibles en el Impuesto sobre Sociedades de la entidad, puesto que no se consideraban como liberalidades las retribuciones a los administradores por el desempeño de funciones de alta dirección, y ya que con el referido contrato tales retribuciones no podían constituir gastos de actuaciones contrarias al ordenamiento jurídico.

En esta situación de aparente estabilidad acaba de irrumpir la recientísima Sentencia de la Sala 1ª –de lo Civil- del TS de 26 de febrero de 2018 (pendiente de publicar), que señala que la reserva estatutaria establecida en el artículo 217 de la LSC, esto es la necesidad de que la existencia y sistema de remuneración conste en estatutos, afecta tanto a los administradores sin funciones ejecutivas como a los administradores ejecutivos.

Una primera conclusión de esta resolución del TS (probablemente, apresurada) podría suponer que la existencia de retribución para los administradores ejecutivos (p.ej. consejeros delegados) y su deducibilidad en el Impuesto sobre Sociedades requiere no solo la firma y aprobación del contrato que exige el artículo 249 de la LSC, sino asimismo cumplir las previsiones del artículo 217 de dicho texto legal, lo que hace necesario que los estatutos contengan el sistema de remuneración de las funciones ejecutivas (aunque no necesariamente su cuantía) y que el importe de dichas remuneraciones por funciones ejecutivas se encuentre incluido dentro del importe máximo anual de remuneración de los administradores establecido por la Junta General.

Sin embargo, parece más prudente suponer que este asunto, de trayectoria tan dilatada, no está agotado definitivamente, y que cualquier decisión al respecto requiere un análisis individualizado de las circunstancias concretas respecto a los servicios que en realidad presta el consejero ejecutivo y al tipo de sociedad en que desempeña su función (p.ej. sociedad no cotizada como era el caso enjuiciado en la reciente Sentencia del TS, o sociedad cotizada en la que ha de existir una la política de retribuciones que podría amparar estas situaciones).

Economía Digital y Fiscalidad

Recientemente ha resurgido el debate en torno a las consecuencias de la economía digital en la fiscalidad o, tal vez mejor, en cuanto a la forma de adaptar la fiscalidad internacional a la digitalización de la economía. De esta manera, el Comisario Moscovici ha declarado que la Comisión europea presentará en marzo sus nuevas propuestas al respecto, en línea con declaraciones similares realizadas desde la Administración francesa.

Esta preocupación por las consecuencias de la digitalización de la economía no es nueva. Prescindiendo de precedentes anteriores, como los trabajos de la OCDE sobre el establecimiento permanente digital y, luego, el informe francés Collin/Colin de 2013, los hitos más relevantes en este debate serían los siguientes:

  1. En primer lugar, el proyecto BEPS de la OCDE dedica la acción 1 a estos retos de la economía digital. El informe final de octubre de 2015 no fue especialmente preciso a la hora de ofrecer soluciones, pero introdujo ya el marco del debate en la medida en que asumió esta necesidad de responder a las consecuencias de la digitalización bien en el terreno de la noción de establecimiento permanente, aceptando la idea de “significant economic presence” o bien mediante la creación de figuras tributarias novedosas, en forma de nuevos supuestos de “withholding tax” o de impuestos sobre determinadas operaciones para compensar la menor tributación de las compañías especialmente volcadas hacia la economía digital.

En 2017, la OCDE la lanzado una nueva fase de esta reflexión a partir del documento publicado el 22 de septiembre que debe dar lugar a un informe especifico próximamente.

  1. La Comisión Europea, por su parte, publicó el 21 de septiembre de 2017 su Comunicación sobre un sistema tributario justo y eficaz en la Unión Europea para el Mercado Único Digital.

Esta Comunicación guarda relación con el paquete IVA lanzado en 2017 que ha incluido el anuncio en diciembre de 2017 de un nuevo sistema en IVA para las ventas transfronterizas on line.

  1. Finalmente, distintos países de la Unión Europea han aprobado medidas o publicado documentos relevantes. Así, la reforma de la legislación italiana, con efectos 1 de enero de 2018, ha significado la ampliación de la noción de establecimiento permanente, con el fin de que alcance presencias económicas sin respaldo físico, y el gravamen de ciertos servicios prestados digitalmente. Por último, el Tesoro del Reino Unido publicó en noviembre de 2017 un detallado “position paper” que reviste un especial interés.

Ahora bien, ¿qué significa a grandes rasgos este movimiento hacia una adaptación de la fiscalidad a la economía digital? Si atendemos a las razones de la Comisión Europea, las reglas actuales no responden a la realidad económica presente y dan lugar a que ciertas grandes compañías tecnológicas no paguen los impuestos que debieran. En consecuencia, la fiscalidad internacional debe permitir gravar la renta allí donde se genera. Esta perspectiva ha permitido centrar el debate en la fiscalidad directa, aunque siempre se ha pensado que el tratamiento de la económica digital exige una visión global que tenga en cuenta tanto los impuestos directos sobre la renta de las compañías como los indirectos y, en particular, el IVA sobre el consumo de bienes o servicios digitales o prestados digitalmente. Por otra parte, aquel enfoque ha ocultado la mayor complejidad que encierra el problema.

Cuando la Comisión Europea acepta en su citada Comunicación que la digitalización afecta a todas las empresas, pero en diversos grados, admite que en realidad sus propuestas se dirigirán a ciertos modelos empresariales en particular que la propia Comunicación enumera: básicamente plataformas de intermediación en ventas minoristas, medios sociales, servicios digitales audiovisuales y la llamada economía colaborativa. Ante estos sectores, se pretende alterar las reglas que determinan la potestad tributaria de cada Estado introduciendo la noción de presencia comercial significativa, aun sin presencia física, y sobre todo las reglas para calcular la tributación que corresponde a cada Estado. Más allá de aprovechar la ocasión para ofrecer la Base Imponible Consolidada Común como solución global, la Comisión acepta las dificultades de la tarea, los inconvenientes de las soluciones unilaterales y la conveniencia de ofrecer soluciones alternativas a la ampliación de la noción de establecimiento permanente, soluciones tales como un impuesto compensatorio sobre ingresos insuficientemente gravados, una retención sobre los ingresos de ciertas transacciones o un impuesto específico.

Ciertamente, como reconoce el documento o “position paper” del Gobierno británico, el debate actual cuestiona en realidad la validez de las reglas establecidas hace un siglo, pero lo hace sólo en cierta medida o en la medida en la que tales reglas producen ahora efectos rechazados por injustos para ciertos países. Frente a lo que se dice a veces no se trata de que las compañías tributen donde venden, pues ahora, como entonces, la mayoría de los Estados sostiene que una compañía debe tributar donde diseña, produce y comercializa sus productos con independencia de donde se hallen sus clientes o consumidores. Lo que sucede es que este principio, que sigue estando en el núcleo del consenso, se ve injusto o inadecuado cuando se trata de la fiscalidad de ciertas actividades basadas, y aquí las posiciones varían según cada país,  en el aprovechamiento de datos de sus usuarios, en servicios de publicidad digital dirigidos a esos usuarios desde otra jurisdicción o en ciertas plataformas digitales de intermediación. Y, además, las cuestiones anteriores han de verse a la luz de aquellos otros problemas derivados de la aplicación de los viejos principios sobre precios de transferencia, cuando se trata de determinar qué parte de la renta corresponde a ciertos intangibles, sobre todo cuando estos se hallan en jurisdicciones de baja tributación.

En suma, la dificultad estriba ahora en cómo justificar esta diferenciación de la fiscalidad de ciertas actividades y cómo hacerlo al gusto de las distintas posiciones de los Estados afectados.