Resumen de las Mesas Legislativas del CELE 2024

En 2024, continuamos con el desarrollo de las “Mesas de Legislación Comparada”, iniciativa que busca profundizar el análisis y diálogo sobre las diversas regulaciones en torno a la libertad de expresión en el derecho comparado. Este proyecto, iniciado en 2022, responde a la creciente cantidad de propuestas legislativas en torno a la regulación de Internet y su impacto en este derecho.

Las Mesas reúnen profesionales de todo el mundo para analizar y debatir proyectos de ley, leyes, leyes modelos o directrices y decisiones judiciales especialmente en materia de regulación de plataformas digitales. El objetivo, como siempre, es avanzar en la comprensión y protección del derecho a la libertad de expresión en el ámbito de Internet, compartiendo experiencias y construyendo puentes entre distintos sistemas jurídicos. Estas mesas suelen contar con una persona invitada que realiza la presentación y análisis de una ley, proyecto de ley o jurisprudencia de su región o país para luego abrir el espacio a preguntas, comentarios, experiencias comparadas y debate. 

Durante 2024 el Observatorio Legislativo del CELE organizó 9 mesas de legislación comparada. La Mesa liderada por Owen Benet abordó la Online Safety Act del Reino Unido y su implementación. En su presentación Bennet explicó cómo la Office of Communications (OFCOM) -órgano encargado de corroborar el cumplimiento de la ley- está adoptando medidas para garantizar que las plataformas digitales, incluidas las redes sociales, cumplan con la regulación sobre control de contenidos, especialmente, la orientada a la protección de niños y adolescentes para que estos no accedan a contenidos inapropiados. 

Emily Laidlaw realizó una presentación sobre la Online Harms Act o Bill C-63, proyecto legislativo presentado por el Gobierno de Canadá en febrero de este año con el fin de establecer un marco regulatorio para abordar los contenidos dañinos en internet. El proyecto normativo contiene disposiciones sobre la moderación de contenidos y deberes de las empresas de mitigar riesgos para sus usuarios, entre otros. Además, propone la creación de una Comisión de Seguridad Digital encargada de hacer cumplir la ley y de un Defensor del Pueblo para la Seguridad Digital. Esta entidad permitirá a los ciudadanos presentar denuncias por posibles infracciones y tendrá la autoridad para imponer medidas de protección contra las plataformas digitales que no cumplan con las disposiciones establecidas. El proyecto impone obligaciones y responsabilidades a los operadores de redes sociales para actuar de manera responsable, proteger a niños y niñas y hacer inaccesibles ciertos contenidos dañinos para usuarios en Canadá. 

Gehan Gunatilleke presentó la Ley de seguridad en línea de Sri Lanka. Esta regulación ha despertado la preocupación de diversas organizaciones de derechos humanos por poner en grave riesgo el derecho a la libertad de expresión, precisamente, en el marco de las elecciones parlamentarias y presidenciales de este año. La preocupación no solo radica en que la ley contiene disposiciones demasiado generales o vagas que podrían amenazar el ejercicio de la libertad de expresión en línea, sino también por las implicancias que tendrá la creación de la Comisión de Seguridad en Internet. Esta nueva entidad estatal tendría amplios poderes para controlar el contenido en las plataformas digitales e investigar a los ciudadanos que difundan desinformación, promoviendo la censura estatal en línea.

Daphne Keller presentó y analizó los casos Moody v. Netchoice, Llc. y Murthy v. Missouri ante la Corte Suprema de los Estados Unidos. En ambos casos, la Corte Suprema subrayó la importancia de proteger la libertad de expresión contra regulaciones estatales, sosteniendo que los gobiernos no deben interferir en las decisiones editoriales de plataformas digitales ni en la moderación del contenido que éstas realizan puesto que se encuentran protegidos por la Primera Enmienda. Keller señaló que estas decisiones consolidan un estándar jurisprudencial clave que preserva la autonomía de las plataformas en la gestión de sus contenidos, como componente esencial de un ecosistema informativo robusto y plural.

Dorota Głowacka realizó una exposición sobre el caso SIN vs Facebook (resuelto en marzo por el Tribunal de Distrito de Varsovia), su relación con la Ley de Servicios Digitales (DSA) europea y su implementación a nivel local. Aunque el caso fue previo a la entrada en vigor de la DSA, el fallo se alinea con sus principios, y el Tribunal de Distrito determinó que la eliminación arbitraria de las páginas de SIN en Facebook e Instagram había sido ilegal.

Este caso es relevante ya que pone de relieve el poder de las grandes plataformas digitales para llevar a cabo acciones de “censura privada” sobre sus usuarios y la ineficiencia de los mecanismos de reclamo con la que cuentan los usuarios ante estas decisiones. Głowacka también mencionó la existencia de un proyecto de ley en Polonia con la finalidad de implementar los estándares de la DSA, específicamente, para contar con un marco jurídico claro para la moderación de contenidos en plataformas digitales. En 2025 volveremos a contar con su presencia para que nos cuente más sobre esta iniciativa regulatoria.

También organizamos Mesas con temáticas más generales que abordaron cuestiones vinculadas con la gobernanza de las plataformas digitales y la inteligencia artificial. Michael Karanicolas hizo una presentación sobre los principales marcos regulatorios de la inteligencia artificial a nivel mundial y resaltó la necesidad de establecer directrices legales que protejan los derechos de los ciudadanos frente al uso de inteligencia artificial en la administración pública. 

Guilherme Canela Godoi, Jefe de la Sección de Libertad de Expresión y Seguridad de Periodistas en la sede de la UNESCO en París, se centró en la presentación de las Directrices para la gobernanza de las plataformas digitales de la UNESCO. Esta fue una oportunidad para que luego de su presentación pudiera haber un rico intercambio entre los participantes y el presentador, tanto sobre el proceso de consulta para la elaboración del proyecto como sobre su contenido final.

En materia de ciberseguridad y libertad de expresión, Marystella Simiyu hizo una exposición sobre la Ley de Uso Indebido de Computadoras y Ciberdelitos de Kenia y su aplicación a nivel judicial. Esta ley ha sido cuestionada por diferentes organizaciones de la sociedad civil que señalan que estaría reñida con el derecho a la libertad de expresión porque establece delitos legalmente inciertos y que restringen el derecho de las personas a la difusión de contenidos en plataformas digitales. Actualmente se está debatiendo su aplicación en los tribunales de Kenia dado que algunos consideran que la ley es incompatible con la Constitución de Kenia de 2010.

Finalmente, Francisco Brito Cruz presentó una exposición sobre las discusiones actuales en torno al marco regulatorio electoral en Brasil, haciendo énfasis en cómo las recientes resoluciones del Tribunal Superior Electoral (TSE), especialmente la Resolución Nº 23.732/2024, afectan tanto el proceso democrático como la libertad de expresión durante los periodos electorales. Brito Cruz señaló cómo estas regulaciones, al modificar el régimen de responsabilidad de intermediarios y establecer nuevas obligaciones de transparencia para plataformas digitales, introducen desafíos legales y prácticos. En particular, destacó la controversia generada por el artículo 9º-E, que responsabiliza a las plataformas por no remover contenidos de “casos de riesgo” de manera inmediata, lo cual podría derivar en censura preventiva y en un aumento del control privado sobre el debate público. 

Tras un repaso general por todas las Mesas de 2024, observamos una tendencia creciente en la intervención estatal, ya sea a través de la creación de comisiones y autoridades administrativas dedicadas a monitorear el cumplimiento de las normativas que buscan regular el espacio digital, como en un mayor rol del poder judicial, tal como ocurre en el caso brasileño donde el Tribunal Superior Electoral introdujo disposiciones que afectan directamente la responsabilidad de intermediarios en periodos electorales.

En estas propuestas regulatorias, destacan dos pilares centrales: el de trust y safety, y el de derechos humanos, cuyo balance varía en cada contexto. En países como Kenia y Sri Lanka, se ha priorizado un enfoque de trust and safety, donde se pone el acento en la seguridad y la integridad de los sistemas digitales por encima de las garantías de derechos humanos y libertad de expresión. Este enfoque ha generado tensiones, ya que la moderación de contenido orientada a mitigar riesgos y a evitar el discurso de odio ha llevado, en ciertos casos, a la implementación de censura preventiva. Canadá, por otro lado, ha adoptado un enfoque que incorpora criterios de derechos humanos en su regulación digital, aunque también ha experimentado presiones para fortalecer sus mecanismos de trust and safety, en particular para abordar contenidos dañinos, como la desinformación, y proteger la integridad de sus procesos electorales.

Las obligaciones de identificación y mitigación de riesgos son otro punto de coincidencia, especialmente en relación con la propaganda electoral y la desinformación. En Brasil, la Resolución Nº 23.732/2024 del TSE introduce controles adicionales, tales como la prohibición de deep fakes y la obligación de etiquetar contenido de inteligencia artificial, que buscan preservar la transparencia en la propaganda electoral. Sin embargo, el mencionado artículo 9º-E de esta resolución presenta un enfoque de intervención directa que difiere de las regulaciones en otros países, donde los intermediarios gozan de mayor autonomía editorial. Esto genera un contraste significativo con el preexistente Marco Civil de Internet en Brasil y subraya una divergencia en las estrategias de moderación de contenido entre el TSE y los estándares federales previos. Finalmente, es interesante observar cómo estos esfuerzos regulatorios han tenido un impacto diferenciado en los derechos editoriales de las plataformas. Si bien en muchos casos las disposiciones locales restringen estas libertades, los casos de Netchoice reafirmaron estos derechos para las plataformas invalidando aquellos esfuerzos estaduales que buscaban restringirlos o morigerar al obligarlas a garantizar que los contenidos no pongan en riesgo el orden público o a los derechos de grupos vulnerables. 

En 2024, la regulación de las grandes plataformas ha estado atravesada por una tensión que parece ir en aumento. Por un lado, la creciente demanda de que éstas actúen principalmente como garantes de un espacio seguro y confiable, y exigiendo una mayor intervención respecto del contenido que circula en línea y cuyos riesgos y daños deben mitigar y prevenir. Esta tendencia se encuentra evidenciada no sólo en desarrollos locales como la Ley de Servicios Digitales de la Unión Europea o la Online Harms Act canadiense sino también en las Directrices de la UNESCO. Por el otro, la reafirmación de los derechos editoriales de moderación de contenidos y la salvaguarda y respeto de los derechos de sus usuarios a una libre circulación del discurso. Si bien hemos identificado puntos en común o tendencias entre regiones, un factor diferencial que parece separar a América Latina, África y Asia del llamado “Norte Global” es el rol del Estado, en particular en la evaluación de riesgos para el discurso en línea. 

Mientras que en varios de los desarrollos regulatorios del “Norte Global” el Estado no parece estar identificado como una potencial fuente de riesgos para la protección de la libertad de expresión, especialmente en su interacción con las plataformas, en los países de la “Mayoría Global” una de las principales preocupaciones está vinculada justamente con el peligro que puede acarrear que el Estado adquiera cada vez más poder sobre el discurso y los datos que circulan en línea, poniendo en riesgo no sólo el ejercicio de la libertad de expresión sino también la integridad de quienes deciden ejercer este derecho.