Regulación de plataformas en Brasil: necesidad, peligros y contradicciones

En los últimos años, un creciente número de Estados han buscado regular, de diversas formas, la circulación de la información en internet. Brasil no es una excepción a esa tendencia. La cuestión de la regulación de plataformas es parte fundamental del debate público brasileño. Recientemente ha habido una gran actividad legislativa y se han planteado diversas alternativas para modificar el vigente Marco Civil de Internet (en adelante, MCI) que dispone, entre otras cosas, la exclusión de responsabilidad de los intermediarios de internet por el contenido generado por terceros (art. 19), salvo que exista una orden judicial. En este posteo hablaremos de dos instrumentos específicos que han estado en la discusión pública en el último tiempo: el proyecto de ley (PL) 2630 y la Resolución 351/2023 del Ministerio de Justicia de Brasil. Y compartiremos algunas impresiones sobre la compatibilidad de sus disposiciones con estándares internacionales de libertad de expresión.

I. Antecedentes

En mayo de 2020 se presentó el proyecto de ley N° 2630 de 2020 (en adelante,  “PL 2630”), que inicialmente buscaba regular la “desinformación” en redes sociales y mensajería privada. En su momento se alzaron contra él numerosas voces críticas, que llevaron a modificaciones en su redacción por considerarlo contrario a la libertad de expresión.

En el año 2021, el entonces presidente Jair Bolsonaro emitió la medida provisoria (No. 1068/2021), que modificaba el MCI y prohibía a los “proveedores de redes sociales” la adopción de “criterios de moderación o limitación de alcance de divulgación de contenido que impliquen censura de carácter política, ideológica, científica, artística o religiosa (art. 8A). Además, disponía que las redes sociales sólo podrían borrar, cancelar o suspender, total o parcialmente, los servicios o perfiles de usuario” si mediara una “justa causa”, y acompañaba un menú de causas consideradas admisibles (art. 8 B), y sanciones para las empresas que no cumplieran. Esta norma imponía fuertes incentivos a las plataformas para moderar de acuerdo con el criterio del Poder Ejecutivo.

La Medida Provisional fue rechazada por el Congreso Nacional, que decidió devolver la medida por inconstitucional. El Gobierno envió nuevamente la propuesta al Congreso, esta vez, como un proyecto de ley, que desde entonces se encuentra congelado en mesa de discusión en la Cámara de Diputados. 

En Febrero de 2023, como reacción a las movilizaciones del 8 de enero desconociendo el resultado de las elecciones, el Ministro de Justicia del nuevo gobierno propuso al Poder Ejecutivo la presentación de un proyecto de ley que hiciera responsables a las grandes plataformas por los contenidos “antidemocráticos” que fueran publicados en ellas y no fueran removidos tras ser notificadas de su existencia. La sociedad civil criticó la iniciativa, que finalmente no prosperó, y reclamó seguir debatiendo el PL 2630, en estudio desde 2020. Adicionalmente, se advirtió que la iniciativa podría resultar inconstitucional. 

II. El retorno del PL 2630

Durante el 2023 el gobierno reflotó la discusión del PL 2630, al que se introdujeron modificaciones que exceden largamente el propósito inicial de la norma. La gran cantidad de cambios introducidos en las últimas semanas en su articulado, que aún hoy se sigue discutiendo en el Congreso, han puesto un freno a su trámite parlamentario.

Una novedad traída por las modificaciones al PL 2630 tiene que ver con la incorporación de algunas características de la Digital Services Act (DSA) de la Unión Europea. El proyecto brasileño impone a las grandes plataformas  obligaciones de transparencia y evaluación de los riesgos sistémicos que emanan de su diseño, su uso y su funcionamiento (art. 7 PL 2360),  la adopción de medidas de mitigación respecto de esos riesgos (art. 8), y el deber de actuar “con diligencia y en plazo oportuno y suficiente, para prevenir y mitigar prácticas ilícitas en el ámbito de su servicio” (art. 11)

A diferencia del régimen de inmunidad condicionada del MCI, el PL 2630 hace responsables civilmente a las plataformas por los contenidos “dañinos” publicados por terceros en dos casos:  en caso de daños causados por contenidos difundidos por las plataformas como publicidad, y en casos en los que exista una violación del deber de cuidado de las plataformas durante el “protocolo de seguridad” de la Sección IV (art.. 6, 13 y 16). 

La Sección IV prevé la activación por parte de las autoridades administrativas (Art. 12) de un “protocolo de seguridad” ante la inminencia de los riesgos del art. 7 o la “negligencia o insuficiencia” del accionar del prestador ante ellos. Una vez establecido el protocolo de seguridad, los proveedores podrán ser responsables civilmente por daños y perjuicios de contenidos generados por terceros cuando se demuestre conocimiento previo (Art. 13) y sólo respecto de los temas e hipótesis estipulados en el protocolo. Respecto a este último punto, existen preocupaciones en torno a los tipos de contenidos específicos que pretende regular el proyecto de ley y que puede de alguna manera afectar la libertad de expresión en discursos que no necesariamente dejan de ser protegidos por este derecho; como aquellos discursos que incomodan, no son moralmente correctos o que no se ajustan a una realidad deseada por una mayoría y que podría incurrir en una censura previa de contenidos prohibida por el artículo 13 de la Convención Americana de Derechos Humanos si el artículo 7 no es clara y precisa. 

Al respecto, Francisco Brito Cruz de InternetLab ha manifestado que este tipo de proyectos puede no estar relacionado con contenidos específicos, sino que debe tener un impacto general y que permitirá que las plataformas puedan analizar los cinco tipos de riesgos: (i) difusión de contenidos ilícitos reseñados en el art. 11; (ii) la garantía y promoción del derecho a la libertad de expresión; (iii) violencia contra la mujer; (iv) discursos desarrollados en el Estado d democrático y salud procesal electoral y (v) efectos de la discriminación ilegal o abusiva como resultado del uso de datos personales. Permitiendo, de esta forma, desarrollar de manera “proactiva” las medidas de mitigación que pueden impactar en el contenido. Sin embargo, aunque se intente regular procesos minuciosos en búsqueda de respetar el debido proceso y otros derechos digitales, no se puede dejar de lado la posibilidad que existe de censura sobre los contenidos legítimos. 

Entre las nuevas cláusulas destacan, además, dos nuevos deberes de las plataformas: el de remunerar a los autores de los contenidos periodísticos y artísticos difundidos en ellas y el de radicar una denuncia ante las autoridades en caso de advertir que se ha producido o puede producirse un delito en el futuro. 

Otra modificación introducida recientemente es la incorporación de una cláusula que extiende la “inmunidad parlamentaria” de los congresistas que difundan información, aún ante expresiones manifiestamente ilegales y que impliquen un daño real, grave e inminente. Esta medida condiciona la autonomía de las plataformas para tomar la decisión de eliminar contenidos o no hacerlo y va en contra de los estándares interamericanos sobre libertad de expresión.

En caso de sancionarse, esta ley sólo sería aplicable a las plataformas (proveedores de redes sociales, herramientas de búsqueda y mensajería instantánea) con más de 10 millones de usuarios. El proyecto dispone la creación de un Comité que controle su cumplimiento. Este último punto resulta interesante y llamativo en la medida en que da la posibilidad de equilibrar el Comité con la composición de (i) un miembro de cada una de las grandes plataformas; (ii) dos miembros de la Cámara de Diputados; (iii) tres miembros de la academia; (iv) tres de la sociedad civil; (v) tres representantes de las instituciones periodísticas o agencias de verificación de hechos. Aparentemente, esta propuesta generaría más confianza en la institución pues muestra tener una neutralidad más sólida. Pero es necesario mencionar que el diseño y composición de la autoridad de aplicación es uno de los temas más controvertidos en la discusión del proyecto.. 

III. La Resolución 351/2023

En medio de la discusión (a nivel legislativo y de sociedad civil) por el PL 2630, y en el contexto de una serie de episodios de violencia en escuelas, el 12 de abril de 2023 el Ministerio de Justicia de Brasil emitió la Resolución 351/2023. 

En sus considerandos, la Resolución afirma que las plataformas no son “agentes neutros en relación con los contenidos que pasan por ellas” y que “la interferencia en el flujo de información es uno de los pilares de [su] modelo de negocios y también la fuente de sus ganancias”. Por eso, entiende que “no es posible eximir a las plataformas de redes sociales de la responsabilidad y obligación de impedir la difusión de contenidos manifiestamente ilícitos, dañosos o nocivos, con respecto a los cuales se espera que se tomen medidas de cuidado razonables y proporcionadas”.

La Resolución enmarca la actividad de las “plataformas de redes sociales” en el derecho del consumidor y pone en cabeza de la autoridad de consumo (SENACOM) el control del cumplimiento del “deber general de seguridad y cuidado” en relación con la difusión de contenidos “ilícitos, dañosos y nocivos” que fomenten ataques contra el entorno escolar o inciten a estos delitos. Obliga a las plataformas a adoptar medidas proactivas para limitar la difusión e incluso restringir tales contenidos y a tomar “medidas de mitigación relacionadas con los riesgos sistémicos derivados del funcionamiento de sus servicios y sistemas conexos, incluidos los sistemas algorítmicos”.

Por otra parte, la Resolución manda a la Secretaría Nacional de Seguridad Pública (SENASP) a establecer una “base de datos de contenidos ilícitos” para el intercambio entre las diferentes plataformas, con el fin de asignar a esos contenidos un “hash” y evitar su reproducción mediante sistemas automatizados; además, obliga a las plataformas a compartir con la SENASP la dirección IP desde las que se subieron esos contenidos, para evitar que la misma persona pueda crear nuevos perfiles. Esta habilitación al SENASP para montar un “banco de contenidos” para su eliminación automática por las plataformas parece habilitarlo para la inclusión de contenido legal que considere “nocivo”. A ello se suma que la administración por parte del estado de un sistema automatizado de baja de contenidos podría constituir una censura previa, inadmisible bajo el art. 13.2 CADH. Ello es especialmente gravoso cuando estos contenidos no son necesariamente ilegales.

IV. Conclusiones 

La gran cantidad de intentos diferentes — y hasta contradictorios — para regular internet en Brasil reflejan un proceso más amplio a nivel global. Actualmente, parece existir un consenso entre muchos gobiernos en cuanto a que ciertos servicios de internet deberían ser más regulados. Lo que no existe es acuerdo en torno a las características que esa regulación debería adquirir.

Algunas iniciativas proponen atacar la inmunidad con la que cuentan los proveedores de servicios de internet por el contenido creado por terceros, o reducirla mediante el establecimiento de responsabilidades basadas en el incumplimiento de procesos (como la DSA o el PL 2630). En estos casos, existen dos riesgos concretos. Uno de ellos está dado por la dificultad de definir adecuadamente el alcance de los deberes de cuidado y debida diligencia que se le imponen a las plataformas. El otro tiene que ver con la posibilidad de que los legisladores decidan sobre contenidos bajo la apariencia de estar haciéndolo sobre procesos, mediante remisiones o fórmulas voluntaristas. A modo de ejemplo, el PL 2630 manda a que las plataformas consideren en su análisis de los riesgos relativos a la protección de la salud pública que se derivan de su uso (art. 7) y tomen medidas para mitigarlos (art. 8); en la práctica, ello no dista mucho de establecer la obligación de moderar contenidos que tengan efectos nocivos sobre la salud pública.

Al respecto, remarcar que el volumen de información que circula por las plataformas es tal que resulta imposible, desde el punto de vista técnico, que éstas controlen efectivamente la totalidad de discurso que allí se publica. Así las cosas, si las plataformas perdieran la inmunidad con la que hasta ahora contaban y pasaran a responder —aunque más no sea en algunas instancias— por el contenido publicado por terceros como si fuera propio, conforme el sistema de responsabilidad civil, los incentivos para que eliminen en forma automatizada muchísimo más discurso del que hoy deciden filtrar serían enormes. Los efectos de la pérdida de esa inmunidad reducirían drásticamente la cantidad y diversidad del discurso disponible en internet, con efectos dañinos para la discusión pública. El lenguaje que habilita, en ambas normas, a las autoridades a investigar y sancionar a las plataformas por el incumplimiento de “deberes de cuidado” es vago y por ende susceptible de ser aplicado con gran arbitrariedad por las autoridades de aplicación. 

Otras propuestas (entre ellas, las expuestas aquí) buscan que las plataformas modifiquen sus términos de servicio imponiéndoles la obligación de eliminar o reducir la circulación de una nueva categoría de discurso, al que se suele calificar como “legal pero dañino” (contenido antidemocrático, sexista, o que “fomente” la violencia o el terrorismo, desinformación, etc). Como ya se ha dicho desde el CELE, no existen razones legítimas para que desde el estado se limite ese tipo de discursos ni forma de hacerlo que no esté reñida con los derechos humanos. El hecho de que el estado obligue a las plataformas a eliminar cierto contenido legal por considerarlo “nocivo” constituye una limitación al derecho de los usuarios a buscar y recibir informaciones de toda índole (art. 13 CADH). En ese sentido, esta afectación no satisface necesidad ni de proporcionalidad (ni de legalidad en el caso de la Resolución 351/2023) exigidos por el SIDH.

Brasil pretende ser pionero en esta nueva etapa de la regulación de internet. En otros países de Latinoamérica se están llevando adelante debates similares sobre desinformación, discursos de odio y regulación de grandes plataformas. Dada su enorme relevancia, la legislación que adopte Brasil podría convertirse en un modelo a imitar por las legislaturas del resto de los estados de la región, por lo que sus aspectos potencialmente incompatibles con estándares de derechos humanos deben revisarse para ser reformulados.