Revista Galega de Administración Pública, EGAP

Núm. 68_julio-diciembre 2024 | pp. 337-356

Santiago de Compostela, 2024

https://doi.org/ 10.36402/regap.v68i1.5280

©Daniele Marongiu

ISSN-e: 1132-8371 | ISSN: 1132-8371

Recibido: 29/01/2024 | Aceptado: 27/03/2025

Editado bajo licencia Creative Commons Atribution 4.0 International License

Lei de emerxencia e desinformación: unha análise do artigo 36 da Lei de servizos dixitais da EU

Ley de emergencia y desinformación: un análisis del artículo 36 de la Ley de Servicios Digitales de la UE

Emergency law and disinformation: an analysis of Article 36 of the EU Digital Services Act

Daniele Marongiu

Researcher in Administrative Law,

Teacher of Internet Law at the University of Cagliari

Resumo: Este artigo examina como o Dixital Services Act da Unión Europea regula o perfil específico da resposta a crise por parte das redes sociais, tal como defínese no artigo 36 do DSA e o Considerando 91. Céntrase nos mecanismos a través dos cales as redes sociais, en situacións de emerxencia, deben frear a proliferación de desinformación que poida contaminar os fluxos de información. Neste contexto, o artigo traza o camiño histórico que conduciu á redacción do DSA, marcando un cambio no enfoque regulatorio en comparación co pasado e propoñendo unha regulación máis unilateral e robusta. Ao mesmo tempo, mostra como, para manter un equilibrio de dereitos que evite formas de censura, o DSA non opta por obrigacións directas cara ás redes sociais ao ditar as modalidades de xestión da desinformación, senón que deixa unha ampla marxe de discreción, obrigándoas a levar a cabo actividades de moderación con transparencia e responsabilidade.

Resumen: Este artículo examina cómo el Digital Services Act de la Unión Europea regula el perfil específico de la respuesta a crisis por parte de las redes sociales, tal como se define en el artículo 36 del DSA y el Considerando 91. Se centra en los mecanismos a través de los cuales las redes sociales, en situaciones de emergencia, deben frenar la proliferación de desinformación que pueda contaminar los flujos de información. En este contexto, el artículo traza el camino histórico que condujo a la redacción del DSA, marcando un cambio en el enfoque regulatorio en comparación con el pasado y proponiendo una regulación más unilateral y robusta. Al mismo tiempo, muestra cómo, para mantener un equilibrio de derechos que evite formas de censura, el DSA no opta por obligaciones directas hacia las redes sociales al dictar las modalidades de gestión de la desinformación, sino que deja un amplio margen de discreción, obligándolas a llevar a cabo actividades de moderación con transparencia y responsabilidad.

Palabras clave: Desinformación, noticias falsas, emergencia, crisis, Unión Europea, Ley de Servicios Digitales.

Abstract: This paper examines how the Digital Services Act (DSA) of the European Union regulates the specific profile of crisis response by social networks, as defined by Article 36 of the DSA and Whereas 91. It focuses on the mechanisms through which social networks, in emergency situations, must curb the proliferation of disinformation that risks polluting information flows. In this context, the paper traces the historical path that led to the drafting of the DSA, marking a shift in regulatory approach compared to the past and proposing a more unilateral and robust regulation. At the same time, it shows how, to maintain a balance of rights that avoids forms of censorship, the DSA does not opt for direct obligations towards social networks by dictating the modalities of disinformation management, but leaves ample room for discretion, while obliging them to carry out moderation activities with transparency and responsibility.

Key words: Disinformation, fake news, emergency, crisis, European Union, Digital Services Act.

Summary: 1. “Emergency law” as part of Administrative Law. 2. Administrative law and the control of disinformation in emergencies. 3. A new rule on a specific aspect: managing disinformation on social media during emergencies. 4. The doubts and criticisms addressed to the provision. 5. Bibliografía.

1 “El derecho de emergencia” como parte del derecho administrativo

El derecho administrativo es una disciplina dinámica que, al igual que otros ámbitos jurídicos, evoluciona con el tiempo. Incluso dentro de un marco relativamente estable, puede dar lugar a la progresiva aparición de nuevas subdisciplinas, en respuesta a la evolución de la sociedad y sus transformaciones, marcadas por nuevas sensibilidades, necesidades, visiones del mundo y contrastes sociales1.

Dentro del derecho administrativo, hay numerosos ejemplos significativos de estos cambios y evolución, como el surgimiento del derecho ambiental en la segunda mitad del siglo XX. Hace cien, o incluso solo cincuenta años, no se consideraba un ámbito jurídico, ya que no existía una sensibilidad social generalizada que justificase su estatus como área de derecho2. El derecho de las telecomunicaciones ha experimentado una evolución similar: también surgió en la segunda mitad del siglo XX tras el desarrollo general de los medios de comunicación de masas y las tecnologías de la información y comunicación (TIC)3.

Por otra parte, el siglo XXI se caracteriza por el desarrollo de nuevas ramas dentro del derecho administrativo, así como por la creciente relevancia de subdisciplinas que, si bien ya existían, ahora adquieren una notable relevancia4. Una de ellas, que desempeña hoy un papel destacado en el escenario internacional, podría denominarse “el derecho administrativo para las emergencias”5.

El derecho de emergencia es una subcategoría del derecho administrativo que abarca un conjunto de normas e instituciones jurídicas para la regulación y gestión de situaciones imprevistas, caracterizadas por la imprevisibilidad y la urgencia, que se apartan de acontecimientos que entran dentro de lo previsible6.

Dada su vinculación esencial con las funciones nucleares del gobierno, este ámbito representa un componente primario del derecho administrativo, y no meramente accesorio. Toda entidad gubernamental, ya sea estatal, autonómica o local, tiene como obligación primordial la gestión de las emergencias y la restauración de la normalidad ante hechos imprevistos y disruptivos7.

Un ejemplo es la administración medioambiental, cuya función principal podría considerarse la gestión de situaciones de emergencia, más que de las cotidianas8.

Por lo tanto, podría darse la paradoja según la cual el “derecho de emergencia”, pese a su carácter excepcional respecto de las normas ordinarias, se aplique con mayor frecuencia que estas últimas. Incluso cabría afirmar que, en la gestión administrativa, “la emergencia es la normalidad”9.

En todo caso, el derecho de emergencia se caracteriza por su capacidad para incidir en múltiples ámbitos de la actuación administrativa, estableciendo con frecuencia regímenes excepcionales y derogaciones respecto del orden normativo ordinario. Entre los sectores particularmente afectados por estas disposiciones excepcionales, se encuentran los relativos a la gestión financiera, la utilización de recursos públicos y la gestión del medio ambiente10.

Otro objetivo de nuestro análisis es explorar el derecho de emergencia desde una perspectiva específica: la gestión de la información. En particular, se examinará el impacto de situaciones de crisis sobre la regulación de la información en redes sociales y en internet, con especial atención a los marcos normativos más recientes adoptados dentro de la UE que delimitan el papel del Estado.

2 La desinformación en situaciones de emergencia: un problema de antes y de ahora

Al abordar la cuestión de cómo regular la información en situaciones de emergencia, partiremos de una primera consideración. El concepto de “emergencia” es intrínsecamente amplio. Los acontecimientos que pueden calificarse como emergencias son diversos, heterogéneos, con características muy distintas entre sí11.

En primer lugar, los eventos clasificados como emergencias pueden diferenciarse entre sí en función de su voluntariedad. Las emergencias pueden categorizarse como desastres naturales, independientes de la intervención humana, o desastres directamente atribuibles a la acción humana. Además, existen emergencias “híbridas”, como las inundaciones, que están influenciadas por factores tanto naturales como antropogénicos.

Las emergencias también pueden diferir considerablemente en su relación con el tiempo: en ocasiones pueden ser acontecimientos inmediatos que transforman una situación en cuestión de minutos, como la erupción de un volcán; en otros casos, puede tratarse de procesos muy lentos que se desarrollan a lo largo de décadas, como el cambio climático.

El espacio es otro factor que puede variar significativamente en situaciones de emergencia. Algunas pueden tener un alcance global, como en el caso de una pandemia12, que llega hasta las islas más remotas, pero en otros casos se limitan a un área reducida, sin afectar a los que se encuentran fuera de esta zona, como una guerra civil13.

No obstante, a pesar de esta heterogeneidad, siempre existe un elemento común que une a todas las situaciones de emergencia: la desinformación, que se propaga rápidamente a través de internet y las redes sociales14.

De hecho, en todos los tipos de emergencia descritos, la información sigue flujos incontrolables, en los que se pueden mezclar la verdad y la falsedad, dificultando (o imposibilitando) su distinción. En este marco, dominado por la incertidumbre, los debates se polarizan, y se genera un bucle de informaciones falsas y discursos de odio que escapan fácilmente a todo control15.

Dicho de otra manera, se puede afirmar que cada emergencia no solo presenta un fenómeno primario de crisis material, sino que también da lugar a una erupción paralela de una ‘cámara magmática conceptual’, compuesta por informaciones distorsionadas, opiniones disfrazadas de hechos, falsedades, exageraciones, noticias falsas y polarizaciones.

Es importante señalar que este fenómeno no es nuevo, ni pertenece necesariamente a la era de las redes sociales: también ha aparecido durante las grandes crisis y emergencias en épocas antes de internet.

Hay ejemplos que incluyen la desinformación y teorías de la conspiración que surgieron en torno a momentos claves de la historia, y que en su día se consideraban emergencias de un enorme impacto, como el asesinato de John F. Kennedy en 1963, que dio lugar a innumerables teorías conspirativas que han sido objeto de numerosos estudios. Otro ejemplo son las noticias falsas que surgieron en torno a los atentados terroristas del 11-S (2001), que demostraron cómo se propaga la desinformación debido a la incertidumbre y fragilidad de las fuentes informativas ante una tragedia inesperada16.

Esta tendencia de la humanidad a crear y propagar teorías conspirativas en relación con acontecimientos disruptivos, imprevistos e inesperados ha sido ampliamente estudiada por los expertos17.

Podrían citarse muchos otros ejemplos de fenómenos de emergencia que dan lugar a la desinformación o, al menos, a la incertidumbre informativa. De hecho, se podría decir que, históricamente, casi todo acontecimiento de emergencia ha dado lugar a noticias falsas.

Al menos tres acontecimientos recientes confirman esta afirmación y han mostrado el aumento del riesgo de “desinformación de emergencia”: la pandemia de 202018, la guerra en Ucrania19 y la crisis entre Israel y Gaza20. Son casos muy distintos, sobre todo el primero, pero comparten el denominador común de la dificultad para gestionar correctamente la información.

La pandemia de 2020 reviste también especial relevancia, porque generó una “desinformación científica” específica, vinculada a cuestiones médicas y diferenciada de la desinformación más “política” que suele surgir en contextos de guerra y conflicto. Como es sabido, este acontecimiento significativo dio origen al neologismo “infodemia”. El término fue introducido por primera vez por la Organización Mundial de la Salud, que lo definió del siguiente modo: “Una infodemia es un exceso de información, incluida información falsa o engañosa, en entornos digitales y físicos durante un brote epidémico. Da lugar a confusión y comportamientos de riesgo que pueden perjudicar la salud. Además, genera desconfianza en las autoridades sanitarias y socava las acciones de la salud pública” 21.

Los ejemplos citados, desde el asesinato de Kennedy a la pandemia de la COVID-19, y la guerra en Gaza, muestran que la conexión entre emergencia y desinformación es una constante en la historia. Dichos acontecimientos, de distinta naturaleza y pertenecientes a períodos diversos, ponen de relieve el carácter persistente de esta relación22.

Estos ejemplos abarcan desde los tiempos previos a internet y las redes sociales hasta la era actual de la información online y las redes sociales.

Desde esta perspectiva, se observan dos aspectos. Por un lado, la desinformación en tiempos de crisis no es un fenómeno nuevo, pues es anterior a internet. Por otro lado, resulta evidente que internet, y en particular las redes sociales, han agravado significativamente esta cuestión23.

Numerosos estudios han abordado este asunto, centrándose en fenómenos que alimentan la desinformación en las redes sociales, como la cámara de eco, el filtro burbuja24, y el efecto Dunning-Kruger, en el cual los individuos sobreestiman su nivel de conocimiento, y la desinformación procedente de fuentes inexpertas se mezcla con la de los expertos, especialmente en ámbitos científicos25.

Por lo tanto, es evidente que, aunque las redes sociales son una herramienta beneficiosa (al permitir una mayor diversificación informativa en comparación con la televisión), conllevan el grave “efecto colateral” de convertirse, con la misma facilidad con la que permiten una comunicación universal sin filtros, en un verdadero “detonante” de informaciones falsas durante una crisis. En consecuencia, el fenómeno preexistente de las noticias falsas se ve amplificado de manera considerable en las crisis de nuestra era.

3 El derecho administrativo y el control de la desinformación en situaciones de emergencia

El “terremoto de desinformación” que generan los eventos disruptivos no solo constituye un fenómeno social; también conlleva importantes implicaciones jurídicas.

De hecho, se podría argumentar que desde una perspectiva administrativa, la gestión de la información y la desinformación es parte integrante de la gestión de emergencias por los poderes públicos.

Las administraciones públicas tienen que estar preparadas para gestionar las emergencias desde un punto de vista material, pero además deben contener el flujo incontrolado de desinformación, garantizando así una salida lo más ordenada posible de las crisis26.

En la era actual de la administración electrónica y una sociedad plenamente desarrollada de la comunicación y la información, es evidente que esta función está incluida en las obligaciones vinculadas al principio de buena administración, tal y como lo garantizan las constituciones estatales y las normas europeas27.

No obstante, hay que aplicar el análisis al plano operativo y práctico, y así plantear la manera en que el poder público pueda cumplir con esta función material y jurídicamente. Es decir, es necesario comprender cuáles son las herramientas operativas e instituciones jurídicas para intervenir en los flujos de información relacionados con situaciones de emergencia28.

Como veremos a continuación, si bien en el pasado existía un vacío normativo en este campo, hoy contamos con una estructura bien definida para estas cuestiones, y que constituye una innovación fundamental en el paradigma de la regulación administrativa tanto a nivel nacional como supranacional.

En concreto, el Reglamento (UE) 2022/2065 de Servicios Digitales ahora incluye una disposición que establece obligaciones especiales para las redes sociales durante las crisis.

Para comprender plenamente dicha disposición específica, primero habría que entender el contexto más amplio del Reglamento de Servicios Digitales y el nuevo paradigma que esta introduce29.

La noción de que las redes sociales constituyen un fenómeno que debe ser regulado, y que junto con sus beneficios presentan también excesos que han de ser contenidos y controlados, se ha hecho más evidente en la última década30.

La comunicación social ha sido objeto de amplios estudios tanto desde una perspectiva social como jurídica, poniendo de manifiesto los efectos distorsionadores de fenómenos como el discurso de odio y la desinformación31.

Los resultados de estos estudios han demostrado que estos “factores contaminantes” de la información se alimentan de dinámicas degenerativas de la comunicación en línea32 que, aunque no eliminan los aspectos “sanos” de la vida social en la red, sí coexisten con ellos y comprometen su naturaleza pacífica. Ejemplos de este fenómeno incluyen alguno de los efectos negativos ya mencionados, tales como las cámaras de eco, el filtro burbuja33, el “efecto cascada34” y la presencia generalizada del efecto Dunning-Kruger35.

Al abordar esta cuestión desde un punto de vista jurídico, resulta evidente que los Estados Unidos y la Unión Europea han adoptado enfoques muy distintos, representando dos paradigmas opuestos en la regulación de los medios de comunicación, internet y las redes sociales.

Como es bien sabido, el ordenamiento jurídico estadounidense aplica al problema de la desinformación una filosofía basada en “un mercado libre de ideas”, un principio consagrado en la Primera Enmienda de la Constitución de los Estados Unidos36. Esta filosofía sostiene que el sistema de información debe autorregularse, sin necesidad de intervención gubernamental. Esta convicción tiene una profunda raigambre en los Estados Unidos, especialmente consolidada en la era de internet y de las redes sociales, y ha conducido a una política de no intervención37.

Cuestionar este enfoque es un fenómeno relativamente reciente en los Estados Unidos. En concreto, la red social TikTok ha puesto a prueba este paradigma jurídico, al ser considerada por algunos sectores políticos estadounidenses una fuente de desinformación y una plataforma opaca, sin criterios de gestión claro38. Sin embargo, este debate aún no ha derivado en una intervención gubernamental significativa en la regulación de las redes sociales, lo que sugiere que el principio del “mercado libre de ideas” sigue siendo predominante, privilegiando la diversidad de fuentes informativas frente al control estatal39.

Este enfoque estadounidense es radicalmente opuesto al de la Unión Europea, caracterizado por una postura más intervencionista en cuanto a la regulación de las redes sociales40.

El modelo europeo se caracteriza por la intervención activa del poder público, en la que los Estados europeos, los magistrados, las autoridades administrativas y la Comisión Europea pueden intervenir para frenar los efectos distorsionadores de las redes sociales41.

No obstante, este intervencionismo se contrarresta mediante garantías y cautelas, dada la naturaleza especialmente sensible de la gestión de la información. Concretamente, los gobiernos europeos y la Comisión Europea deben actuar para no menoscabar la libertad de expresión o incurrir en prácticas de censura, puesto que este equilibrio constituye un elemento central en el enfoque europeo del derecho de internet.

En aras de este difícil equilibrio, históricamente, la intervención europea en las dinámicas de comunicación en internet se ha desarrollado en dos fases, que representan dos paradigmas de enfoques de la autoridad pública respecto a la regulación de las redes sociales dentro de la Unión Europea.

La primera fase tuvo lugar en la segunda mitad de la década de 2010 y se caracterizó por un enfoque “horizontal”, basado principalmente en el soft law. En cambio, la segunda fase se está desarrollando en la década de 2020 y se distingue por una orientación más “vertical”, basada en la adopción de normas que imponen obligaciones jurídicas a las redes sociales42.

Esta primera fase “horizontal” se centraba en fomentar la autorregulación de las plataformas digitales, más que en la imposición de obligaciones legales43. Una de las herramientas más usadas en este sentido consistía en convocar mesas de trabajo en condiciones de igualdad, donde los representantes de las plataformas web pudieran debatir, evaluar buenas prácticas y establecer códigos de autorregulación.

En esta fase, las autoridades de comunicación de cada Estado europeo (en el caso de Italia, la AGCOM) desempeñaron un papel fundamental, asumiendo la función de “árbitros imparciales” en esta gestión horizontal del problema44.

En Italia, el ejemplo más significativo de este modelo de gestión tuvo lugar el 6 de noviembre de 2017, cuando la Autoridad Italiana para las Telecomunicaciones constituyó una “Mesa de Trabajo para la garantía del pluralismo y la veracidad de la información en las plataformas digitales”. Este foro facilitó el diálogo entre los representantes de las principales plataformas en línea, con el fin de compartir buenas prácticas y desarrollar medidas de autorregulación45.

La mesa de trabajo, operando bajo un modelo de gestión “horizontal”, llevó a cabo una labor inicial de reconocimiento, publicando documentación sobre el estado actual de la desinformación social. Posteriormente, elaboró códigos autónomos, especialmente con ocasión de las elecciones políticas italianas de 2018 y las elecciones europeas de 201946.

Por tanto, durante la primera fase, el control de las noticias falsas estaba vinculado principalmente a la gestión de eventos políticos y electorales, más que a situaciones de emergencia. Sin embargo, se trató de un avance significativo, ya que constituyó el primer intento de atribuir responsabilidad a las redes sociales y a las plataformas digitales en la gestión de la desinformación difundida a través de sus espacios47.

Paralelamente, a nivel europeo, la Comisión Europea instó a los gestores de las plataformas digitales a identificar mecanismos de autorregulación, favoreciendo así un enfoque de gobernanza “horizontal” en lugar de una intervención unilateral. Esto dio lugar a la creación del “Código de buenas prácticas de la UE en materia de desinformación”, en el que las redes sociales se comprometieron de manera voluntaria a implementar medidas de moderación y control de contenidos para combatir la difusión de noticias falsas48.

En particular, dicho documento establece que: “Los signatarios pertinentes se comprometen a invertir en productos, tecnologías y programas [...] que ayuden a las personas a tomar decisiones informadas cuando se encuentren con noticias en línea que puedan ser falsas, incluyendo el apoyo a los esfuerzos para desarrollar e implementar indicadores eficaces de fiabilidad en colaboración con el ecosistema informativo”49.

Estos documentos representan tan solo una pequeña parte de una extensa documentación que refleja un enfoque que carecía de instrumentos regulatorios estrictos para las redes sociales, optando en su lugar por la autorresponsabilidad.

Aunque, de manera indiscutible, se trataba de un enfoque soft, la mesa de trabajo marcó el comienzo de una fase de concienciación, situando a las redes sociales ante la necesidad de reconocer su poder y, en consecuencia, de asumir cierta responsabilidad en su ejercicio.

No obstante, dicho enfoque horizontal también evidenció algunas limitaciones50, y los resultados no siempre han sido buenos51, como han puesto de manifiesto dos acontecimientos en los últimos años en los que las redes sociales se vieron sometidas a una prueba crítica respecto de su capacidad para moderar los flujos de contenido, circunstancias caracterizadas por su carácter imprevisible, a diferencia de los eventos de índole política para los cuales se habían concebido inicialmente los códigos de autorregulación de las plataformas digitales. En concreto, surgieron situaciones de emergencia imprevistas que generaron crisis de una magnitud superior a las previstas en etapas anteriores. Se trata de la emergencia sanitaria derivada de la pandemia de 202052 y, posteriormente, la guerra en Ucrania que empezó con la invasión rusa en 202253.

En ambos casos, numerosos estudios y observadores detectaron un incremento significativo en los fenómenos de desinformación, que experimentaron una verdadera “detonación”. En el primer caso, como ya se ha indicado, la Organización Mundial de la Salud empleó el término “infodemia”54 para describir la circulación descontrolada de información inexacta o engañosa.

Ante estas evidentes pruebas de resistencia, se constató que las redes sociales no eran capaces de contener, de manera autónoma, la propagación de la desinformación. Los mecanismos de gobernanza horizontal y de soft law se revelaron ineficaces o, en el mejor de los casos, extremadamente débiles en un contexto de propagación acelerada de contenidos falsos55.

Como consecuencia de estas experiencias insatisfactorias, a comienzos de la década de 2020, se produjo una transición hacia una nueva fase regulatoria europea centrada en el control de las redes sociales, caracterizada por un enfoque más “vertical” o descendente, como muestra el Reglamento (UE) n.º 2065/2022 de Servicios Digitales56.

Este reglamento impone obligaciones jurídicas reales a las redes sociales, abordando de manera sistemática cuestiones relativas a la responsabilidad y la transparencia57.

La mayoría de las obligaciones previstas en el Reglamento de Servicios Digitales afectan específicamente a las denominadas “plataformas en línea muy grandes”, definidas como aquellas redes sociales y servicios web que cuentan con al menos 45 millones de usuarios activos mensuales. En la actualidad, existen 17 plataformas en Europa que cumplen con esta condición y que por lo tanto están sujetas a este reglamento58.

4 Una nueva norma para una cuestión específica: cómo gestionar la desinformación en las redes sociales durante una emergencia

De especial relevancia es el hecho de que, dentro del amplio objetivo de mejorar la transparencia y la responsabilidad de las redes sociales, el Reglamento de Servicios Digitales incluye una disposición muy innovadora. Su artículo 36 constituye una auténtica novedad dentro del marco regulador general en comparación con otras disposiciones, abordando de manera específica la gestión de las redes sociales en situaciones de crisis, como las emergencias59.

“Cuando se produzca una crisis, la Comisión, previa recomendación de la Junta, podrá adoptar una decisión por la que se exija a uno o varios prestadores de plataformas en línea muy grandes o de motores de búsqueda en línea muy grandes que adopten una o varias de las siguientes medidas: a) evaluar si el funcionamiento y el uso de sus servicios contribuyen o es probable que contribuyan de forma significativa a una amenaza grave contemplada en el apartado 2 y, en caso afirmativo, en qué medida y de qué manera; b) determinar y aplicar medidas específicas, eficaces y proporcionadas, como cualquiera de las previstas en el artículo 35, apartado 1, o en el artículo 48, apartado 2, para prevenir, eliminar o limitar cualquier contribución de este tipo a la amenaza grave detectada con arreglo a la letra a) del presente apartado; c) informar a la Comisión, en una fecha determinada o a intervalos periódicos especificados en la decisión, de las evaluaciones a las que se refiere la letra a), el contenido exacto, la aplicación y el impacto cualitativo y cuantitativo de las medidas específicas adoptadas con arreglo a la letra b), así como de cualquier otra cuestión relacionada con dichas evaluaciones o medidas, tal como se especifique en la decisión”60.

Es una norma que pasó por un largo proceso de desarrollo que duró unos dos años. Redactada en varias fases entre 2020 y 2022, refleja e incorpora las crisis más significativas en el escenario internacional durante ese período61.

En el primer borrador, esta disposición fue concebida principalmente en el contexto de la pandemia de 2020, con el objetivo de abordar la “infodemia”, es decir, la difusión generalizada de desinformación, particularmente en temas pseudocientíficos, que acompañó a la crisis sanitaria62.

No obstante, el texto definitivo refleja en gran medida el hecho de que, durante el desarrollo del acto legislativo, tuvieron lugar nuevos acontecimientos globales que también generaron crisis de desinformación. El más relevante es el conflicto entre Rusia y Ucrania, que estalló en marzo de 202263.

Por lo tanto, la norma ha consolidado su objetivo de contrarrestar la desinformación, trazando un paralelo con el mundo físico, donde construimos barreras para protegernos de los riesgos naturales como las inundaciones y las erupciones volcánicas.

El análisis detallado del artículo 36 del Reglamento de Servicios Digitales revela dos preguntas pendientes: una definición precisa de “crisis”, y las medidas que deben adoptar las redes sociales para gestionar la situación64.

Existen razones legales por las cuales estos aspectos permanecen indefinidos en el reglamento, especialmente en lo referente a las medidas que se deberían adoptar. Esto está relacionado con la necesidad del legislador de equilibrar la imposición de obligaciones a las redes sociales y evitar una interferencia excesiva con la libertad de la información65.

Sin embargo, un análisis más detallado revela que en realidad no existe tal vacío legal, ya que las respuestas se encuentran en otra parte del reglamento, concretamente en la cláusula 91 de las consideraciones previas, que proporciona la información necesaria para la interpretación del artículo 36 del Reglamento de Servicios Digitales66.

Esta cláusula proporciona las claves para identificar las crisis que requieren la aplicación del artículo 36. “En tiempos de crisis puede ser necesario que los prestadores de plataformas en línea muy grandes adopten con urgencia determinadas medidas específicas”. A continuación, explica lo siguiente:

“A este respecto, debe considerarse que se produce una crisis cuando se producen circunstancias extraordinarias que pueden dar lugar a una amenaza grave para la seguridad pública o la salud pública en la Unión o en partes significativas de la Unión. Estas crisis podrían derivarse de conflictos armados o actos de terrorismo, incluidos los conflictos o actos de terrorismo emergentes, las catástrofes naturales como terremotos y huracanes, así como las pandemias y otras amenazas transfronterizas graves para la salud pública”.

Por lo tanto, las condiciones de crisis que determinan la posibilidad de solicitar medidas especiales a las redes sociales son diversas e incluyen emergencias tales como conflictos y terrorismo o desastres naturales como terremotos y pandemias67.

Así, parece que el artículo 36 del Reglamento de Servicios Digitales requiere principalmente que los responsables de las redes sociales verifiquen cómo podrían contribuir activamente a la agravación de conflictos mediante discursos de odio descontrolados o a la propagación de noticias falsas durante una crisis o pandemia68.

Incluso la segunda cuestión, aparentemente no resuelta por el artículo 36, es decir, las medidas que deberían adoptar las redes sociales, es aclarada en la cláusula 91 de las consideraciones previas.

“Las medidas que dichos prestadores pueden determinar y considerar aplicar pueden incluir, por ejemplo, la adaptación de los procesos de moderación de contenidos y el aumento de los recursos dedicados a la moderación de contenidos, la adaptación de las condiciones generales, los sistemas algorítmicos pertinentes y los sistemas publicitarios, la intensificación de la cooperación con los alertadores fiables, la adopción de medidas de concienciación y la promoción de información fiable y la adaptación del diseño de sus interfaces en línea”.

Por lo tanto, es posible observar que el reglamento incluye varios elementos claves: el enfoque en la moderación de contenidos, la asignación de mayores recursos para este fin y la orientación hacia fuentes fiables.

Una forma de lograr esto es que las redes sociales modifiquen sus algoritmos para priorizar las noticias provenientes de fuentes institucionales sobre las noticias de fuentes no controladas69.

Sin embargo, hay que señalar que la Comisión Europea (en este caso la autoridad pública) no estipula medidas obligatorias que deben aplicar las plataformas digitales para conseguir el objetivo deseado. Por el contrario, deja plena libertad de acción sobre las estrategias para contener las condiciones de crisis a través del control de la desinformación70.

La libertad otorgada a las redes sociales para decidir las medidas a adoptar se ve equilibrada por una obligación de transparencia, ya que se les exige informar ex post sobre las actividades realizadas y las medidas implementadas71.

En este sentido, la cláusula 91 del Reglamento de Servicios Digitales se limita a proporcionar ejemplos de posibles acciones, como se ha indicado anteriormente. Esencialmente, el reglamento urge a los gestores de las grandes plataformas digitales a evaluar su papel en el agravamiento de la crisis y, cuando sea necesario, a informar sobra sus acciones: “Verificar si han influido en el agravamiento de la crisis y, en caso afirmativo, adoptar medidas de manera independiente e informar al final cómo actuaron”72.

Es importante señalar que esto es probablemente el alcance máximo al que puede llegar una disposición legal. Cualquier intervención más directa o perentoria podría considerarse una interferencia legislativa excesiva y una violación de la libertad de información.

En este sentido, el reglamento europeo tuvo que encontrar un equilibrio, responsabilizando a las redes sociales pero, al mismo tiempo, otorgándoles libertad de acción y evitando interferencias indebidas en sus decisiones de gestión73.

No obstante, a pesar del aparente equilibrio, esta disposición ha generado una considerable oposición y controversia.

5 Las dudas y críticas dirigidas a la disposición

La disposición del Reglamento de Servicios Digitales objeto de nuestro análisis ha generado numerosas controversias y ha suscitado críticas, especialmente por parte de observadores externos que consideran que podría llevar a fenómenos de censura en las redes sociales.

Una de estas voces críticas es la Organización Europea de Derechos Digitales (EDRI, por sus siglas en inglés), una red de organizaciones no gubernamentales cuya misión es proteger los derechos humanos en internet. El 12 de abril de 2022, las organizaciones que forman esta red firmaron un documento que, si bien valora algunos aspectos del artículo 36 del Reglamento de Servicios Digitales, también expresa fuertes críticas, alegando que:

“El mecanismo propuesto otorga un poder excesivamente amplio a la Comisión Europea para declarar unilateralmente un estado de emergencia a nivel de toda la Unión Europea. Esto permitiría imponer amplias restricciones a la libertad de expresión y al libre acceso y difusión de información en la Unión”74.

Asimismo, afirma que:

“Las decisiones que afectan a la libertad de expresión y al acceso a la información, en particular en tiempos de crisis, no pueden legítimamente ser adoptadas únicamente a través del poder ejecutivo (…) la definición de crisis (actualmente amplia, incluyendo pandemias, terrorismo o “conflictos emergentes”) debe respetar los principios de claridad y especificidad, y no debería facultar a la Comisión para mantener medidas de crisis durante años”.

Además, el documento recomienda que “El mecanismo propuesto debe limitar la duración de las medidas adoptadas para paliar las crisis”, y cuestiona “si la Comisión es el órgano adecuado para realizar tal evaluación de manera unilateral, especialmente en tiempos políticamente sensibles y bajo una fuerte presión política de los Estados miembros”.

Por el contrario, también es posible que se produzca el problema opuesto, en el que el poder público se vuelva excesivamente dependiente de las redes sociales para la moderación de contenidos, trasladando así el poder desde la esfera pública hacia entidades privadas75.

Dicho de otra manera, el Reglamento de Servicios Digitales reconoce formalmente el papel significativo que desempeñan las plataformas sociales en la gestión de los flujos de información. En este sentido, no solo legitima dicho poder, sino que también impone a las plataformas la obligación de ejercerlo de manera responsable y transparente.

Sin embargo, esta situación podría considerarse una “solución forzada” dentro del marco de los principios y normas del derecho europeo. El poder público no podría actuar de otro modo que no fuera invistiendo a las redes sociales de la responsabilidad de gestionar la información, imponiéndoles además la obligación de rendir cuentas posteriormente. De hecho, una intervención más directa por parte del poder público sería más invasiva y potencialmente lesiva para la libertad de expresión, como ocurriría si las autoridades gubernamentales dictaran criterios directos a las plataformas para la moderación y el filtrado de contenidos.

En conclusión, la situación general se puede resumir de la siguiente manera: el problema de la desinformación durante las situaciones de emergencia se ve agravado por el incremento de las noticias falsas y los discursos de odio.
Aunque las autoridades públicas no pueden intervenir directamente para controlar estos fenómenos sin vulnerar el marco legal, la acción legislativa a nivel de la Unión Europea ha desplazado la responsabilidad hacia las grandes plataformas digitales, que ahora están obligadas a gestionar la crisis de manera transparente y con rendición de cuentas.

6 Bibliografía

ALLEGRI M.R., Social e politica, l’approccio soft di Agcom: tutte le zone grigie, in Agenda Digitale, 2020.

BASSINI M., Libertà di espressione e social network, tra nuovi “spazi pubblici” e “poteri privati”. Spunti di comparazione, in Rivista Italiana di Informatica e Diritto, 2021, 2, 46.

BIRRITTIERI E., Contrasto alla disinformazione, Digital Services Act e attività di private enforcement: fondamento, contenuti e limiti degli obblighi di compliance e dei poteri di autonormazione degli operatori, in AA. VV., Come individuare e contrastare operazioni coordinate di disinformazione in Italia, Roma, Luiss, 2023, 64.

BONINI P., L’autoregolamentazione dei principali Social Network. Una prima ricognizione delle regole sui contenuti politici, in Federalismi.it, 2020, 11, 280.

BORGOBELLO M., Digital Service Act, obblighi di trasparenza e legal design: come adeguarsi, in Agenda Digitale, 2024.

BORGOBELLO, M., L’ombra della censura sul Digital Services Act, in Agenda Digitale, 2024.

BOTTINO G. L’amministrazione dell’emergenza, in CERIDAP, 2024, 1.

BROTHERTON R., Suspicious Minds: Why We Believe Conspiracy Theories, London, Bloomsbury Sigma, 2015.

BUIJS D., BURI I., The DSA’s crisis approach: crisis response mechanism and crisis protocols, in DSA Oservatory, 2023.

CALDERINI B., La disinformazione corre sui social e le contromisure non bastano: che fare?, in Agenda Digitale, 2020.

CALDERINI B., I nuovi obblighi UE cambieranno le piattaforme online: ecco come, in Agenda Digitale, 2023.

CANTERO MARTÍNEZ J., La incidencia de la técnica y de las transformaciones sociales en el derecho administrativo; el recurso la denominada “autorregulación regulada”, in PUNZÓN MORALEDA J. (ed.), Administraciones públicas y nuevas tecnologías, Valladolid, Lex Nova, 2005, 309.

CARBONE M.R., Le “relazioni di trasparenza” nel Digital Services Act: cosa sono e come farle, in Agenda Digitale, 2024.

CARRO FERNÁNDEZ-VALMAYOR J.L., Una introducción a la idea de modernización administrativa, in Dereito. Revista xurídica da Universidade de Santiago de Compostela, monográfico Estudios sobre la modernización administrativa, 2011, 5.

CASSESE S., “Le droit tout puissant et unique de la société”. Paradossi del diritto amministrativo, in Rivista trimestrale di diritto pubblico, 2009, 4.

CAVALLO PERIN R., Il diritto amministrativo dell’emergenza per fattori esterni all’amministrazione pubblica, in Diritto Amministrativo, 2005, 1, 777.

CERQUAZZI F., “Stato d’emergenza” e Costituzione, in Ius in itinere, 2020.

CHITRA U., MUSCO C., Understanding Filter Bubbles and Polarization in Social Networks, in researchgate.net, 2019

CHIVIELLO D. L’amministrazione dell’”ordinaria” emergenza, in Federalismi.it, 2010, 12, 24.

CORASANITI G., Regolazione, autoregolazione, sovraregolzione della Rete: dal “far” web al “fair” web, in Diritto di Internet, 2021, 12.

DAL CO M., Fuga dalle news: come pandemia e guerra hanno cambiato il nostro rapporto coi media, in Agenda Digitale, 2022.

DE GREGORIO G., The market place of ideas nell’era della post-verità: quali responsabilità per gli attori pubblici e privati online?, in Media Laws, 2017, 1, 93.

DE VIVO I., Il potere d’opinione delle piattaforme-online: quale ruolo del “regulatory turn” europeo nell’oligopolio informativo digitale?, in Federalismi.it, 2024, 2, 45.

DI COSTANZO F., Che può fare la pubblica amministrazione per salvarci dalle fake news, in Agenda Digiale, 2018.

DUNN P. Piattaforme digitali e moderazione dei contenuti d’odio: nodi giuridici e pratici, in Media Laws, 2021.

FERREAU J.F., Crisis? What crisis? The risk of fighting disinformation with the DSA’s crisis response mechanism in Journal of Media Law, 2024, 16.

FIORITTO A., L’amministrazione dell’emergenza tra autorità e garanzie, Bologna, Il Mulino, 2008.

FLAMINIO S. Lotta alle fake news: dallo stato dell’arte a una prospettiva di regolamentazione per il “vivere digitale” a margine del Digital Services Act, in Rivista Italiana di Informatica e Diritto, 2022, 2, 75.

FRANCHI J., Moderazione contenuti social: ecco cosa rivelano i primi numeri post Digital Services Act, in Agenda Digitale, 2023.

FULCO D., Il Digital Services Act tutela davvero la democrazia? I problemi dell’approccio Ue, in Agenda Digitale, 2023.

GIUSTI N., LONGO A., Digital services act: molti vantaggi per utenti ed Europa, ma sarà una sfida attuare le nuove norme, in Cybersecurity360, 2022.

GOTTLIEB M., DYER S. Information and Disinformation: Social Media in the COVID-19 Crisis, in Academic emergency medicine, 2020, 7, 640.

IORIO E., Comunicazione in emergenza: il ruolo della PA per un’informazione certificata, in ForumPA, 2020.

WSKY A.E., EU’s fight against disinformation – Who owns the truth?, in Media Laws, 2024.

LADEUR K.-H., The Evolution of General Administrative Law and the Emergence of Postmodern Administrative Law, in Osgoode CLPE Research Paper, 2011, 16, 3.

MANETTI M., Regolare Internet, in Media Laws, 2020, 2, 35.

MARCHEGIANI M., Le situazioni emergenziali tra diritti e restrizioni, Torino, Giappichelli, 2022, 2.

MÉNDEZ-MUROS S., ALONSO-GONZÁLEZ M., PÉREZ-CURIEL C., Disinformation and Fact-Checking in the Face of Natural Disasters: A Case Study on Turkey–Syria Earthquakes, IN SOCIETIES, 2024, 4

MÍGUEZ MACHO L., Últimos pasos en la implantación de la administración electrónica: el desarrollo de las leyes ٣٩ y ٤٠/٢٠١٥ en materia de actuación y funcionamiento del sector público por medios electrónicos, in GARCÍA NOVOA C., SANTIAGO IGLESIAS D. (ed.), 4ª revolución industrial: impacto de la automatización y la inteligencia artificial en la sociedad y la economía digital, Navarra, Aranzadi, 2018, 345.

MURONE F.G., Il Digital Service Act e il contrasto ai contenuti illeciti online, in Ius In Itinere, 2021.

NICITA A., Le piattaforme online tra moderazione e autoregolazione: verso il Digital Services Act, in Media Laws, 2020.

OMAR S., VAN BELLE J.P., Disaster Misinformation Management: Strategies for Mitigating the Effects of Fake News on Emergency Response, in: ROCHA Á., FERRÁS C., HOCHSTETTER DIEZ J., DIÉGUEZ REBOLLEDO M. (eds), Information Technology and Systems, New York, Springer, 2024.

PASSAGLIA P., Fake news e fake democracy: una convergenza da scongiurare, in Federalismi.it, 2020, 11, 126.

PELEN N.N. GÖLGELI M., Vector-borne disinformation during disasters and emergencies, in Physica A, 2022, 15.

POLIDORO M. (ed.), 11/9 La cospirazione impossibile, Milano, Piemme, 2007.

RAZZANTE R., Nuove frontiere della libertà d’espressione alla luce del Digital services act (Dsa) e dell’evoluzione normativa europea, tra criticità applicative e possibili risvolti costituzionali, in Dirittifondamentali.it, 2023, 3, 136.

RUBIN V.L., Disinformation and misinformation triangle: A conceptual model for “fake news” epidemic, causal factors and interventions, in Journal of Documentation, 2019.

SAETTA B., Entra in vigore il Digital Services Act, la principale normativa europea che regolamenta il mondo digitale, in Valigia Blu, 2023.

SAGOS N., Law and the Concept of Emergency, in AA.VV., Democracy, Emergency, and Arbitrary Coercion, Leida, Brill, 2015, 60

SANTIAGO IGLESIAS D., «Smart cities», aproximación un fenómeno en auge, in NOVOA C., SANTIAGO IGLESIAS D. (ed.), 4ª revolución industrial: impacto de la automatización y la inteligencia artificial en la sociedad y la economía digital, Navarra, Aranzadi, 2018, 421.

SASSI S. L’Unione Europea e la lotta alla disinformazione online, in Federalismi.it, 2023, 15, 183.

SCOPELLITI D., Poteri privati e responsabilità pubbliche dei social network al tempo della democrazia digitale, in Federalismi.it, 2024, 7, 239.

STEWART R.B., Administrative law in the twenty-first century, in New York University Law Review, 2003, 2, 437.

SUNSTEIN C. #Republic, Princeton University Press, 2018.

TORPAN S., HANSSON S., RHINARD M., KZEMEKITYTE A., JUKARAINEN P., MEYER S.F., SCHIEFFELERS A., LOVASZ G., ORRU K., Handling false information in emergency management: A cross-national comparative study of European practices, in International Journal of Disaster Risk Reduction 2021.

TOURKOCHORITI I., The Digital Services Act and the EU as the Global Regulator of the Internet, in Chicago Journal of International Law, 2023, 1, 136.

TURILLZZI A., TADDEO M., FLORIDI L., CASOLARI F., The digital services act: an analysis of its ethical, legal, and social implications, in Law Innovation and Technology, 2023, 1.

VASINO G., Censura “privata” e contrasto all’hate speech nell’era delle Internet Platforms, in Federalismi.it, 2023, 4, 130;

VESE D., Governing Fake News: The Regulation of Social Media and the Right to Freedom of Expression in the Era of Emergency, Cambridge University Press, 2021.


  1. 1 CARRO FERNÁNDEZ-VALMAYOR J.L., Una introducción a la idea de modernización administrativa, en Dereito. Revista xurídica de Universidade de Santiago de Compostela, monográfico Estudios sobre la modernización administrativa, 2011, 5; LADEUR K.-H., The Evolution of General Administrative Law and the Emergence of Postmodern Administrative Law, en Osgoode CLPE Research Paper, 2011, 16, 3; STEWART R.B., Administrative law in the twenty-first century, en New York University Law Review, 2003, 2, 437; CASSESE S. Il diritto amministrativo. Storia e prospettive, Milano, Giuffré, 2010, 8. CERULLI IRELLI V., Lineamenti di diritto amministrativo, Torino, Giappichelli, 2022, 1.

  2. 2 SAND P.H., The Evolution of Transnational Environmental Law: Four Cases in Historical Perspective, Cambridge University Press, 2012.; SABATO G., Tempo e ambiente: un ponte tra passato e presente, en Federalismi.it, 2023, 6, 173; ONIDA M., Il diritto ambientale dell’UE nel tempo, tra agenda europea e politiche nazionali, in Federalismi.it, 2020, 7, 93.; SALVEMINI L., Un sistema multilivello alle origini del diritto ambientale, in Federalismi.it, 2022,4, 902; FEDERICO A., Un’introduzione al diritto internazionale dell’ambiente, in DirittoConsenso, 2022; VOSA G., La tutela dell’ambiente “bene materiale complesso unitario” fra Stato e autonomie territoriali: appunti per una riflessione, in Federalismi.it, 2017. ,19, 2.

  3. 3 MÍGUEZ MACHO L., Últimos psos en la impantación de la administración electrónica: el desarrollo de las leyes 39 y 40/2015 en materia de actuación y funzionamento del sector público por medios electrónicos, in GARCÍA NOVOA C., SANTIAGO IGLESIAS D. (ed.), 4ª revolución industrial: impacto de la automatización y la intelicencia artificial en la sociedad y la economía digital, Navarra, Aranzadi, 2018, 345; REITZ J.C., E-Government, en The American Journal of Comparative Law, 2006, suppl_1, 733; CIVITARESE MATTEUCCI S., TORCHIA L., La tecnificazione dell’amministrazione, in ID., La tecnificazone, Firenze University Press, 2016, 11; FAINI F., Il diritto nella tecnica: tecnologie emergenti e nuove forme di regolazione, in Federalismi.it, 2020, 16, 79.; IANNOTTI DELLA VALLE A., L’età digitale come “età dei diritti”: un’utopia ancora possibile? en Federalismi.it, 2019, 16, 2.; BOTTARI M., Procedimento amministrativo: evoluzione digitale e suoi sviluppi nell’era dell’Intelligenza artificiale., en Il Diritto Amministrativo, 2024, 11.

  4. 4 RODOTÀ S., La vita e le regole, Milano, Feltrinelli, 2018. ID., I nuovi diritti che hanno cambiato il mondo, in Privacy,it, 2004; CASSESE S., “Le droit tout puissant et unique de la société”. Paradossi del diritto amministrativo, in Rivista trimestrale di diritto pubblico, 2009, 4.

  5. 5 LÓPEZ OLVERA M.A., Garantías en los estados de emergencia, en Foro, 2010, 13, 77.; TIAN G., Administrative Law Regulation of Social Risk-Focus on Improving the Emergency Response Law, en Science of Law Journal 2022, 2, 67; FIORITTO A., L’amministrazione dell’emergenza tra autorità e garanzie, Bologna, Il Mulino, 2008; CAVALLO PERIN R.Il diritto amministrativo dell’eergenza per fttori esterni all’amministrazione pubblica, in Diritto Amministrativo, 2005, 1, 777.

  6. 6 SIMONCINI M., Introduzione alla nozione di emergenza nel diritto amministrativo. Il caso inglese, in Federalismi.it, 2007, 19, 4.

  7. 7 SAGOS N., Law and the Concept of Emergency, in AA.VV., Democracy, Emergency, and Arbitrary Coercion, Leida, Brill, 2015, 60; BRIGNOLI N. Il problema dei problemi: emergenza e ordinamento giuridico. Spunti sui risvolti ordinamentali dell’emergenza pandemica da Covid-19, en Nuove Autonomie, 2022, 2, 552.

  8. 8 Ver el concepto de “Smart environment” in SANTIAGO IGLESIAS D., «Smart cities», aproximación un fenómeno en auge, EN NOVOA C., SANTIAGO IGLESIAS D. (ed.), 4ª revolución industrial: impacto de la automatización y la inteligencia artificial en la sociedad y la economía digital, Navarra, Aranzadi, 2018, 421.

  9. 9 CHIVIELLO D. L’amministrazione dell’”ordinaria” emergenza, in Federalismi.it, 2010, 12, 24.

  10. 10 DUGATO M., I golden powers tra espansione ed atipicità, en Munus, 2023, 1, V; PASSAGLIA P., Poteri emergenziali e deroghe al principio di legalità, en cortecostituzionale.it, 2011; AFFANNATO E., Lo stato di emergenza e i suoi rimedi: il riparto delle competenze fra Stato e Regioni come limite alla decretazione d’urgenza e il fondamento costituzionale delle ordinanze contingibili e urgenti nazionali, regionali e locali, in Federalismi.it, 2022.3, 64; VALENTINI F., Necessità e urgenza: i poteri dell’amministrazione per fronteggiare le emergenze, en Altalex, 2017; LINARDI S., Ricorso all’urgenza come deroga all’ordinamento giuridico con particolare riguardo alle ordinanze contingibili e urgenti in materia di prot.civ., en Amministrativamente, 2010, 6.

  11. 11 BOTTINO G. L’amministrazione dell’emergenza, en CERIDAP, 2024, 1; CERQUAZZI F., “Stato d’emergenza” e Costituzione, en Ius in itinere, 2020.

  12. 12 COMZZETTO G.,stato di nell’ordinamento italiano, in BioLaw Journal, 2020, 1, 35. ; CARLESIMO V., Stato di diritto e pandemia, in Altalex, 2020; LANCILLOTTI A., Emergenza sanitaria e diritto internazionale umanitario, en BONAVITA A:, FATTORINI S., MARCHEGIANI M., Le situazioni emergenziali tra diritti e restrizioni, Torino, Giappichelli, 2022, 2.

  13. 13 Or concerning neighboring countries, in the management of refugee reception: CASU S., Crisi ucraina: l’accoglienza dei profughi tra obblighi di fonte UE e discrezionalità statale, en Ius in itinere, 2022.

  14. 14 AA.VV. Dalla pndemia alla guerra in Ucraina; un anno e mezzo di contrasto alla fisinformzione, EDMO fact-checking network, 2023.

  15. 15 BENVENGA L., ZATERINI M.J., Il ruolo della disinformazione in un contesto di emergenza sociosanitaria, en Iconocrazia, 2022, 1, 112; MAGNANI C., Emergenza sanitaria e libertà d’informazione: cenni sul contrasto alla disinformazione nei giorni del coronavirus in Forum di Quaderni costituzionali, 2020, 2, 237.

  16. 16 POLIDORO M., 11/9 La cospirazione impossibile, Milano, Piemme, 2007.

  17. 17 BROTHERTON R., Suspicious Minds: Why We Believe Conspiracy Theories, London, Bloomsbury Sigma, 2015.

  18. 18 PONTI B., La libertà di informazione al tempo della pandemia. Rilievi critici in margine all’istituzione dell’«unità di monitoraggio per il contrasto della diffusione di fake news relative al CoViD-19 sul web e sui social network, en Biolaw Journal, 2020,1, 635.

  19. 19 O.L. Fake news e guerra Ucraina: impennata di siti di disinformazione, in Corriere Comunicazioni, 2022.

  20. 20 AA. VV., Israele-Hamas: tra guerra, fake news e polarizzazione, en Ispionline.it, 2023; AA. VV., La crisi in Israele riaccende l’industria delle fake news, in Wired, 2023.

  21. 21 Ver https://www.who.int/health-topics/infodemic

  22. 22 PASSAGLIA P., Fake news e fake democracy: una convergenza da scongiurare, in Federalismi.it, 2020, 11, 126.

  23. 23 RUBIN V.L., Disinformation and misinformation triangle: A conceptual model for “fake news” epidemic, causal factors and interventions, en Journal of Documentation, 2019: AA. VV., Come si diffonde la disinformazione sui social media, in Le Scienze, 2017.

  24. 24 SUNSTEIN C. #Republic, Princeton University Press, 2018; CHITRA U, MUSCO C., Understanding Filter Bubbles and Polarization in Social Networks, en researchgate.net, 2019 ; BIANCA M., La filter bubble e il problema dell’identità digitale, en Media Laws, 2019, 2, 5.

  25. 25 DUIGANN B., Dunning-Kruger effect, en Britannica.com, 2024.

  26. 26 TORPAN S., HANSSON S., RHINARD M., KZEMEKITYTE A., JUKARAINEN P., MEYER S.F., SCHIEFFELERS A., LOVASZ G., ORRU K., Handling false information in emergency management: A cross-national comparative study of European practices, in International Journal of Disaster Risk Reductionm 2021; DI COSTANZO F., Che può fare la pubblica amministrazione per salvarci dalle fake news, en Agenda Digiale, 2018.

  27. 27 VESE D., Governing Fake News: The Regulation of Social Media and the Right to Freedom of Expression in the Era of Emergency, Cambridge University Press, 2021; GIACOMAZZI M., Disinformazione: perché la vera chiave di contrasto è la democrazia digitale, en Agenda Digitale, 2022.

  28. 28 OMAR S., VAN BELLE J.P., Disaster Misinformation Management: Strategies for Mitigating the Effects of Fake News on Emergency Response, en ROCHA Á., FERRÁS C., HOCHSTETTER DIEZ J., DIÉGUEZ REBOLLEDO M. (eds), Information Technology and Systems, New York, Springer, 2024; IORIO E., Comunicazione in emergenza: il ruolo della PA per un’informazione certificata, en ForumPA, 2020.

  29. 29 TURILLZZI A., TADDEO M., FLORIDI L., CASOLARI F., The digital services act: an analysis of its ethical, legal, and social implications, en Law Innovation and Technology, 2023, 1, ; CATALETA A., LASAVIO A., Digital Services Act e riforma del panorama digitale: la stretta sulle big tech, en Cybersecurity360, 2023.

  30. 30 DUNN P. Piattaforme digitali e moderazione dei contenuti d’odio: nodi giuridici e pratici, in Media Laws, 2021; MANETTI M., Regolare Internet, en Media Laws, 2020, 2, 35.

  31. 31 FLAMINIO S. Lotta alle fake news: dallo stato dell’arte a una prospettiva di regolamentazione per il “vivere digitale” a margine del Digital Services Act, in Rivista Italiana di Informatica e Diritto, 2022, 2, 75; GRIMALDI D., La responsabilità dei social tra fake news e hate speech: perché è tema cruciale per la democrazia, in Agenda digitale, 2020.

  32. 32 PELEN N.N. GÖLGELI M., Vector-borne disinformation during disasters and emergencies, en Physica A, 2022, 15; AA. VV., I social media migliorano la democrazia?, en Irpa.eu, 2024.

  33. 33 PARISER E., The Filter Bubble: What the Internet is Hiding from, New York, Penguin Press, 2011.

  34. 34 CALDERINI B., La disinformazione corre sui social e le contromisure non bastano: che fare?, in Agenda Digitale, 2020.

  35. 35 PROTTI G. Effetto Dunning-Kruger: attenzione alla trappola cognitiva, en Medical Facts, 2020.

  36. 36 GRANDE E., I mobili confini della libertà di espressione negli Stati Uniti e il metro della paura, en Questione Giustizia, 2015, 4, 47.

  37. 37 DE GREGORIO G., The market place of ideas nell’era della post-verità: quali responsabilità per gli attori pubblici e privati online?, en Media Laws, 2017, 1, 93.

  38. 38 MALLAMACI A. Che ne sarà di TikTok negli Usa? Ecco i possibili scenari, in Agenda Digitale, 2024; IUVINLE G. IUVINALE N., L’influenza della Cina su TikTok: Usa e Ue provano a difendere democrazia e sicurezza nazionale, en Agenda Digitale, 2023; BORGOBELLO M., Ue e Usa uniti contro TikTok: in ballo non solo la privacy ma la manipolazione sociale, en Agenda Digitale, 2022.

  39. 39 BASSINI M., Libertà di espressione e social network, tra nuovi “spazi pubblici” e “poteri privati”. Spunti di comparazione, en Rivista Italiana di Informatica e Diritto, 2021, 2, 46.

  40. 40 CALDERINI B., I nuovi obblighi UE cambieranno le piattaforme online: ecco come, en Agenda Digitale, 2023.

  41. 41 SASSI S. L’Unione Europea e la lotta alla disinformazione online online, en Federalismi.it, 2023, 15, 183.

  42. 42 CORASANITI G., Regolazione, autoregolazione, sovraregolzione della Rete: dal “far” web al “fair” web, en Diritto di Internet, 2021, 12.

  43. 43 CANTERO MARTÍNEZ J., La incidencia de la técnica y de las transformaciones sociales en el derecho administrativo; el recurso la denominada “autorregulción regulda”, en PUNZÓN MORALEDA J. (ed.), Administraciones públicas y nuevas tecnologias, Valladolid, Lex Nova, 2005, 309; AA.VV., L’Europa si interroga: quali responsabilità per quali piattaforme digitali?, en Irpa.eu, 2021.

  44. 44 ALLEGRI M.R., Social e politica, l’approccio soft di Agcom: tutte le zone grigie, in Agenda Digitale, 2020.

  45. 45 Ver la página web oficial de la AGCOM: https://www.agcom.it/comunicazione/comunicati-stampa/comunicato-stampa-16-novembre-2017

  46. 46 Ver los documentos en la página web de la AGCOM: https://www.agcom.it/tavolo-pluralismo-e-piattaforme-online

  47. 47 MORCELLINI M., Per una migliore informazione online, quali policy e il ruolo dell’Autorità, en Agenda Digitale, 2018.

  48. 48 Ver la página web oficial: https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/new-push-european-democracy/protecting-democracy/strengthened-eu-code-practice-disinformation_en

  49. 49 Ver el documento en la página web: https://eaca.eu/wp-content/uploads/2022/02/final_eu_code_of_practice_on_disinformation_D338C8F1-A97F-2907-656993A02EFA92BA_54454-1.pdf

  50. 50 NICITA A., Le piattaforme online tra moderazione e autoregolazione: verso il Digital Services Act, in Media Laws, 2020.

  51. 51 BONINI P., L’autoregolamentazione dei principali Social Network. Una prima ricognizione delle regole sui contenuti politici, en Federalismi.it, 2020, 11, 280.

  52. 52 GOTTLIEB M., DYER S. Information and Disinformation: Social Media in the COVID‐19 Crisis, en Academic emergency medicine, 2020, 7, 640.

  53. 53 DODA I., I siti che hanno pubblicato bufale sulla pandemia ora diffondono disinformazione sull’Ucraina, en Wired.it, 2022.

  54. 54 Cambridge Dictionary define “infodemic” como “a situation in which a lot of false information is being spread in a way that is harmful”: https://dictionary.cambridge.org/dictionary/english/infodemic

  55. 55 DAL CO M., Fuga dalle news: come pandemia e guerra hanno cambiato il nostro rapporto coi media, en Agenda Digitale, 2022. LAMANUZZI M., Il problema della disinformazione in rete: i limiti del diritto penale e le potenzialità del nuovo Codice rafforzato di buone pratiche dell’UE, in Media Laws, 2022.

  56. 56 DE VIVO I., Il potere d’opinione delle piattaforme-online: quale ruolo del “regulatory turn” europeo nell’oligopolio informativo digitale?, en Federalismi.it, 2024, 2, 45; MURONE F.G., Il Digital Service Act e il contrasto ai contenuti illeciti online, en Ius In Itinere, 2021.

  57. 57 BORGOBELLO M., Digital Service Act, obblighi di trasparenza e legal design: come adeguarsi, en Agenda Digitale, 2024; CARBONE M.R., Le “relazioni di trasparenza” nel Digital Services Act: cosa sono e come farle, en Agenda Digitale, 2024; CATALETA A.; LOSAVIO A., Digital Services Act, perché cambia tutto per diritti e sicurezza: ecco i punti chiave, en Agenda Digitale, 2022.

  58. 58 Ver la página web oficial: https://ec.europa.eu/commission/presscorner/detail/en/ip_23_2413

  59. 59 PANETTA R., Digital Services Act, le norme da tenere d’occhio: ecco l’impatto sulla nostra vita online, en Agenda Digitale, 2022.

  60. 60 El texto oficial se puede consultar en https://www.eu-digital-services-act.com/Digital_Services_Act_Article_36.html

  61. 61 SAETTA B., Entra in vigore il Digital Services Act, la principale normativa europea che regolamenta il mondo digitale, en Valigia Blu, 2023.

  62. 62 FERREAU J.F., Crisis? What crisis? The risk of fighting disinformation with the DSA’s crisis response mechanism en Journal of Media Law, 2024, 16.

  63. 63 MEAKER M., Ukraine war prompots Europe’s new emergency rules for the Internet, en Wired, 2022.

  64. 64 BUIJS D., BURI I., The DSA’s crisis approach: crisis response mechanism and crisis protocols, en DSA Oservatory, 2023.

  65. 65 VASINO G., Censura “privata” e contrasto all’hate speech nell’era delle Internet Platforms, en Federalismi.it, 2023, 4, 130; FULCO D., Il Digital Services Act tutela davvero la democrazia? I problemi dell’approccio Ue, en Agenda Digitale, 2023; BORGOELLO, M., L’ombra della censura sul Digital Services Act, en Agenda Digitale, 2024.

  66. 66 BIRRITTIERI E., Contrasto alla disinformazione, Digital Services Act e attività di private enforcement: fondamento, contenuti e limiti degli obblighi di compliance e dei poteri di autonormazione degli operatori, in AA. VV., Come individuare e contrastare operazioni coordinate di disinformazione in Italia, Roma, Luiss, 2023, 64.

  67. 67 MÉNDEZ-MUROS S., ALONSO-GONZÁALEZ M., PÉREZ-CURIEL C., Disinformation and Fact-Checking in the Face of Natural Disasters: A Case Study on Turkey–Syria Earthquakes, en SOCIETIES, 2024, 4; DALAYLI F., Disinformation in Times of Disaster and Crisis, en Journal of Disaster and Risk, 2024, 2, 505.

  68. 68 GIUSTI N., LONGO A., Digital services act: molti vantaggi per utenti ed Europa, ma sarà una sfida attuare le nuove norme, en Cybersecurity360, 2022.

  69. 69 BUCCA R. SABATINI M., Digital services act, la Ue a una svolta: cosa cambia per utenti, aziende e big tech, en Agenda Digitale, 2022; GIRARDI M.C., Libertà e limiti della comunicazione nello spazio pubblico digitale, in Federalismi.it, 2024, 17, 150.

  70. 70 KOZINOWSKY A.E., EU’s fight against disinformation – Who owns the truth?, en Media Laws, 2024.

  71. 71 FRANCHI J., Moderazione contenuti social: ecco cosa rivelano i primi numeri post Digital Services Act, in Agenda Digitale, 2023.

  72. 72 RAZZANTE R., Nuove frontiere della libertà d’espressione alla luce del Digital services act (Dsa) e dell’evoluzione normativa europea, tra criticità applicative e possibili risvolti costituzionali, en Dirittifondamentali.it, 2023, 3, 136.

  73. 73 TOURKOCHORITI I., The Digital Services Act and the EU as the Global Regulator of the Internet, en Chicago Journal of International Law, 2023, 1, 136.

  74. 74 Se puede consultar el documento completo en https://www.article19.org/resources/eu-digital-services-act-crisis-response-must-respect-human-rights/

  75. 75 SCOPELLITI D., Poteri privati e responsabilità pubbliche dei social network al tempo della democrazia digitale, en Federalismi.it, 2024, 7, 239.