El pasado miércoles 28 de abril, el Plenario del Parlamento Europeo aprobó la regulación sobre la lucha contra la difusión de contenidos terroristas en línea, luego de que su texto fuera aprobado en Comisión unos días antes. La norma permitirá que autoridades estatales soliciten la remoción de contenido terrorista (aún si el contenido está alojado fuera de su territorio) en el plazo de 1 hora, sin la necesidad de una orden judicial.
Esta regulación se da en un contexto enfocado en combatir el terrorismo a nivel global. Desde Europa han surgido y se han acompañado diversas iniciativas regulatorias al respecto, encontrándose entre ellas la recomendación de la Comisión Europea sobre medidas para combatir eficazmente el contenido ilegal en línea en 2018, donde se incluyen recomendaciones específicas relativas al contenido terrorista en concordancia con la normativa recientemente aprobada. Incluso en el marco de la Asamblea General de Naciones Unidas los Estados se encuentran actualmente en proceso de negociación y redacción de una nueva resolución para combatir el terrorismo, que se espera sea aprobada en junio de este año.
A su vez, con el objetivo de combatir los contenidos terroristas y de violencia extrema en línea, en los últimos años han surgido iniciativas de carácter público-privado a nivel global. Podemos destacar, por ejemplo, el Código de Conducta para Combatir la Incitación Ilegal al Odio en Internet firmado en 2016 entre la Comisión Europea y algunas de las empresas más dominantes de internet, que surge en respuesta a los ataques terroristas de Bruselas de ese año y de París el año anterior; el Foro Mundial de Internet para la Lucha contra el Terrorismo (“GIFCT”, por sus siglas en inglés), creado en 2017, que propicia “fomentar la colaboración y el intercambio de información para luchar contra la actividad terrorista y extremista violenta en línea” a través de una base de datos de hashes que limita la circulación del contenido identificado como terrorista (ver más acá); y el Llamado de Christchurch, una convocatoria de acción a gobiernos y representantes de empresas de tecnología para combatir el contenido terrorista y violento en línea, creada luego del ataque terroristas en la ciudad Christchurch, Nueva Zelanda, en marzo de 2019.
Sin dudas, las intenciones de estas iniciativas son legítimas. Sin embargo, sus amplias definiciones y dependencia de instancias estrictamente privadas llevan a que su ejecución no siempre esté en clara concordancia con los estándares de derechos humanos reconocidos a nivel internacional.
A continuación, una síntesis de las críticas presentadas por organizaciones de la sociedad civil, academia y organismos internacionales que advierten sobre por qué las disposiciones de la recientemente aprobada regulación sobre la lucha contra la difusión de contenidos terroristas en línea son altamente problemáticas para el derecho de libertad de expresión.
Las empresas definen qué es contenido terrorista sin análisis de autoridad pública competente
En primer lugar, la falta de una orden judicial pone el foco en que las empresas sean quienes determinen si efectivamente se trata de contenido terrorista o no. Esto, en la práctica, implica una delegación de facultades públicas en las compañías, dándoles más poder del que deberían tener para decidir sobre la legalidad de un contenido. Sobre este punto, David Kaye, ex Relator Especial sobre la Promoción y Protección del Derecho a la Libertad de Opinión y de Expresión de la ONU, indicó en su informe temático de 2018 que “(…) Las cuestiones complejas de hecho y de derecho deberían ser resueltas por las instituciones públicas, no por agentes privados cuyos procedimientos actuales tal vez no sean compatibles con las normas relativas a las debidas garantías procesales y cuya motivación es principalmente económica”.
Existe el riesgo de que gobiernos utilicen esta regulación como herramienta para censurar voces opositoras
La falta de orden judicial, además, profundiza una problemática recurrente y cada vez más naturalizada: los gobiernos solicitan a las empresas la remoción de contenido problemático, dañino o incendiario, que es contenido legal. Las compañías son las que deciden eliminar o no eliminar el contenido si, al confrontarlo con sus políticas de uso, entienden que no ha existido violación, pero en la realidad ceden ante la presión política. Este tipo de medidas puede entonces ser utilizada como una herramienta al servicio de gobiernos tanto autoritarios como democráticos, para profundizar prácticas de censura indirecta (entendida en los términos de la OC-5/85 de la Corte IDH, en el ámbito del Sistema Interamericano de Derechos Humanos).
Es usual que los gobiernos cuenten con una oficina que se dedique a estas solicitudes -comúnmente llamadas “Unidades de Referencia de Internet” -“IRU” por sus siglas en inglés-. Se trata de organismos que revisan contenido en redes sociales y, si encuentran contenido que viole los términos de uso de las plataformas, solicitan su remoción. La falta de transparencia de las plataformas respecto de las demandas de remoción de contenido por parte de Gobiernos ha sido criticada de manera constante por parte de sociedad civil, activistas y académicos alrededor del mundo. Ya por 2016, la Global Network Initiative, en su informe de políticas sobre Contenido Extremista y el Sector TIC recomendaba a los gobiernos que pongan “a disposición del público las leyes, interpretaciones legales y políticas que autorizan la restricción de contenidos. Los gobiernos también deben divulgar información sobre los organismos que están legalmente autorizados a ordenar restricciones, las normas sustantivas para cualquier restricción, y los mecanismos de debido proceso y supervisión involucrados en la restricción de contenidos».
Respecto de las compañías del sector TIC, en el mismo informe se recomendaba que estas “deben actuar de forma transparente con sus usuarios y el público cuando los gobiernos les pidan que retiren o restrinjan contenidos, y deben impulsar a los gobiernos a presentar informes de transparencia» (la traducción es propia).
A pesar de los reclamos de la sociedad civil, la información disponible por las empresas en este aspecto continúa siendo opaca. De hecho, hace algunas semanas, en esta decisión, el Oversight Board indicó haberle solicitado información a Facebook sobre las comunicaciones realizadas por el Gobierno indio, que la compañía se rehusó a proveer.
En su correspondencia conjunta dirigida a la Unión Europea con críticas sobre el entonces proyecto de regulación, la Relatora Especial sobre la promoción y protección del derecho a la libertad de opinión y de expresión, Irene Khan, y la Relatora Especial sobre la promoción y protección de los derechos humanos y las libertades fundamentales en la lucha contra el terrorismo, Fionnuala Ní Aoláin (ambas de la ONU), enfatizan que el derecho a la libertad de expresión se extiende“no sólo a las informaciones o ideas que se reciben favorablemente o se consideran inofensivas o indiferentes, sino también a las que ofenden, chocan o que ofenden o molestan al Estado o a cualquier sector de la población. Tales son las exigencias del pluralismo, la tolerancia y la amplitud de miradas sin las cuales no hay ‘sociedad democrática’. Además, como el derecho de acceso a la información se extiende a todo tipo de información, los Estados tienen la carga de justificar cualquier retención de información como una excepción a ese derecho” (la traducción es propia).
El plazo de 1 hora incentiva el uso de mecanismos automatizados de detección y remoción de contenido
Por otro lado, quienes critican la medida hacen énfasis en que el brevísimo plazo de 1 hora para la remoción de contenido presiona a que las empresas implementen sistemas automatizados, cuyos algoritmos puedan detectar rápidamente estos tipos de contenidos sujetos a remoción. El análisis de por sí es complejo y las probabilidades de errar son altas: resulta difícil desarrollar un juicio sensato en menos de 1 hora.
Sumado a ello, la implementación de tecnologías automatizadas podría comprender prácticas de monitoreo general y la utilización de los temidos filtros de subida (los que, si bien la regulación no los menciona explícitamente, tampoco los prohíbe). En efecto, la norma dispone que las plataformas deberán tomar “acciones específicas” para prevenir la difusión de contenido terrorista. Los filtros de subida son algoritmos diseñados para reconocer ciertos patrones y tipos de contenido y bloquearlos de manera automática. Esto presupone un enorme riesgo con respecto al discurso protegido por el derecho a la libertad de expresión, dado que los algoritmos difícilmente puedan reconocer el contexto en el que se encuentra el contenido. En este sentido, en el comunicado conjunto de más de 60 organismos de la sociedad civil dirigido al Parlamento Europeo en contra de la aprobación de esta regulación, las organizaciones señalan que “debido a que es imposible que las herramientas automatizadas diferencien sistemáticamente la sátira, el activismo o los discursos en contra del terrorismo, de los contenidos que se consideran terrorismo en sí mismos, el aumento de la automatización acabará provocando la eliminación de contenido legal, como la información periodística o denuncias sobre trato discriminatorio hacia las minorías y grupos infrarrepresentados”.
En la práctica sucede, inclusive, que el caudal de contenido a revisar por parte de los moderadores humanos es tal que en muchas ocasiones no llegan a revisar la totalidad de los contenidos audiovisuales (esta reciente decisión del Oversight Board de Facebook se refiere a un contenido removido por error de un moderador de contenido humano que, aparentemente, no dedicó “suficiente tiempo o atención a la revisión de este contenido”).
Las ‘autoridades competentes’ pueden ordenar la remoción de contenido que se encuentra fuera de su jurisdicción
La medida dispone, a su vez, que las autoridades estatales competentes podrán solicitar la remoción de contenido aún si el mismo está alojado fuera de su jurisdicción. Aquí se advierten dos problemas: por un lado, la posibilidad de que este mecanismo sea utilizado por gobiernos autoritarios para silenciar voces opositoras, aún si éstas se encuentran fuera de su territorio, sin control judicial previo. En este sentido, la comunicación de las organizaciones de la sociedad civil se refiere al actual contexto político europeo al indicar que “a la luz de las graves amenazas al estado de derecho en algunos Estados de la UE, la confianza mutua que sustenta la cooperación judicial europea podría verse gravemente socavada”.
Por otro lado, las diferencias de interpretación entre los Estados respecto de qué constituye contenido terrorista, qué es sátira y qué es información periodística, por ejemplo, comprende una realidad que trasciende el texto de la norma y que no va a ser resuelta con su mera sanción.
¿Qué nos dicen los fundamentos de la regulación?
La regulación tiene una extensa fundamentación sobre la cual se apoya, refiriéndose al artículo 114 del Tratado de Funcionamiento de la Unión Europea respecto del funcionamiento del mercado interior. En su primer considerando, la regulación menciona que tiene por objeto “garantizar el buen funcionamiento del mercado único digital en una sociedad abierta y democrática, mediante la lucha contra el uso indebido de los servicios de alojamiento de datos con fines terroristas y contribuyendo a la seguridad pública en toda la Unión”. La mención al mercado único digital y al rol de los prestadores de servicios de alojamiento de datos en línea en la economía digital resalta el contexto en el que se aprueba la medida en la Unión Europea. Actualmente se está debatiendo el proyecto de regulación de Servicios Digitales (conocido como el paquete DSA) en el marco de la estrategia de mercado único digital, a fin de armonizar las condiciones de los prestadores de servicios de internet a lo largo y ancho de la región sin que esto afecte el funcionamiento del mercado interno.
Por supuesto, la fundamentación de la medida también hace alusión al objetivo de luchar contra el terrorismo y al respeto por los derechos humanos fundamentales. El problema en este punto no son sus intenciones, sobre las cuales el consenso es unánime (difícilmente pueda argumentarse en contra de la lucha contra el terrorismo). El desafío, en cambio, es cómo desarrollar e implementar los mecanismos para concretar estos objetivos sin afectar otros derechos fundamentales como el derecho a la libertad de expresión, el derecho a acceder a información, el derecho a la privacidad, entre otros.
¿Cómo puede impactar esta regulación en América Latina?
Las regulaciones adoptadas en Estados Unidos y Europa, donde se encuentran basadas las compañías más grandes de internet, impactan en nuestra jurisdicción y en el resto del mundo. En parte, debido a que en nuestra región miramos las regulaciones del hemisferio norte, en muchos casos, como modelos a seguir para implementar en nuestras jurisdicciones -y la falta de marcos regulatorios sólidos y consensos básicos sobre las soluciones aplicables en América Latina podrían hacernos más propensos a importar medidas estadounidenses y/o europeas, con sus errores y aciertos-. Esto es particularmente preocupante en normas como la que estamos analizando, donde resulta clara la presión estatal por generar regímenes de remoción de contenido sin supervisión judicial, a instancia estrictamente privada y sin un mecanismo de supervisión independiente. Como menciona Agustina del Campo en este artículo, aún siendo bien intencionadas, este tipo de iniciativas promueve amplias restricciones a la libertad de expresión en línea y, sumado a ello, debido al trágico historial de dictaduras en nuestra región, estas propuestas pueden servir de “pantalla política” para que los gobiernos tomen medidas agresivas de remoción de discurso en línea (pueden acceder a la serie completa de artículos sobre moderación de contenidos y su impacto en el sur global haciendo click acá).
Al mismo tiempo, el impacto en nuestra jurisdicción se da por una razón tecnológica y económica: los algoritmos implementados por las plataformas de internet para cumplir con una regulación local se aplican a nivel global al ser más sencillo por cuestiones de desarrollo tecnológico y, por ende, más económico. Para las plataformas es más fácil adoptar una regla y aplicarla globalmente que adoptar distintas leyes locales y aplicarlas por separado. Hace unos días, en el webinar organizado por Access Now sobre el impacto en latinoamérica de la regulación de plataformas en Europa, Daphne Keller resaltaba que en su experiencia considera que las plataformas van a aplicar las medidas que resulten menos costosas a nivel global, y las más costosas sólo en Europa: dentro de las menos costosas se encuentran acciones como la remoción de contenido, por ejemplo, mientras que las acciones más costosas comprenderían la implementación de mecanismos de apelación, sistemas alternativos de resolución de conflictos, entre otros. Si bien Keller se refería específicamente al impacto de la DSA, creo que su argumento bien podría traducirse en nuestra región con relación a la TERREG. Es posible, entonces, que en América Latina sintamos la aplicación de las medidas europeas recibiendo “la peor parte” de la regulación.