En enero de 2021, tras la toma del Capitolio de los Estados Unidos por parte de manifestantes de ultraderecha y 10 días antes de terminar su presidencia, Twitter suspendió indefinidamente la cuenta de @realDonaldTrump, 45 Presidente de los Estados Unidos, por violación de sus términos y condiciones de servicio (ToS).  Atento el uso que hizo de su cuenta durante la manifestación, donde insistió en sus alegatos de fraude electoral y catalogó como “patriotas” a quienes en ese momento irrumpieron en el capitolio, la empresa consideró que el ahora ex Presidente incitaba a la violencia y constituía una amenaza para la seguridad de las personas.  Facebook, hizo lo propio y también decidió suspender la cuenta pero la medida fue impuesta hasta que la transición democrática hubiera sido concluida.Recientemente refirió a su flamante Consejo Asesor la posibilidad de suspender la cuenta de manera indefinida.Google y Apple decidieron, por su parte, excluir a Parler -una red social conocida en EEUU por la falta de reglas de moderación en torno al discurso de odioydesinformación donde circulaba contenido de los insurgentes- de sus respectivos stores; Y finalmente Amazon decidió terminar su servicio de hosting, dejándola efectivamente offline.

Las decisiones de las empresas de internet durante la primera semana de enero no son inéditas. En nuestra región, Twitter y Facebook ya habían bloqueado contenido del Presidente Bolsonaro en Brasil y de Maduro en Venezuela. También se había visto una fuerte intervención de empresas como Godaddy o Cloudflare,proveedorasde servicios de hostingy seguridad digital, en la moderación de discursos problemáticos en el marco de la protesta de Charlottesville en 2017. Y si bien en América Latina (y en Europa) no faltaron voces que denunciaron CENSURA! en todas estas instancias, la discusión es indudablemente más compleja.

La regulación privada del contenido en internet es una facultad garantizada por la Primera Enmienda de la Constitución Estadounidense y por la sección 230 de la Communications Decency Act (1996). Las empresas de internet radicadas en ese país tienen derecho a ejercer su libertad de expresión, incluyendo el derecho a no admitir determinados contenidos en sus plataformas. Y además, no son responsables por el contenido que terceros puedan publicar ni por sus propias decisiones en torno a qué contenidos bloquear. La moderación de contenidos sobre todo vinculada con la desinformación va en alza especialmente desde que la Organización Mundial de la Salud declarara la pandemia en marzo de 2020 y durante el reciente proceso electoral estadounidense. Esta creciente intervención responde en gran parte a exigencias tanto de gobiernos como de sociedad civil preocupadas por fenómenos como la desinformación, la polarización y la proliferación de discursos discriminatorios y de odio en Internet. Sin embargo, y sin perjuicio de que legalmente puedan, los bloqueos y las suspensiones implementadas por las empresas de internet en enero reabrieron interrogantes profundos en torno a la gestión del discurso público, los actores que idealmente debieran verse involucrados y las normas que han de regirlo en sociedades democráticas.

Las decisiones de Apple, Google y Amazon en enero de 2021 responden a la aplicación de la lógica de moderación de contenidos en servicios que tradicionalmente no han implementado esta lógica. Estas empresas gozan de un enorme poder de control sobre la existencia misma y el acceso a plataformas de contenido de todo tipo, incluyendo redes sociales pero también aplicaciones de salud, educación, bancarias, de gestión, etc. Empresas como Amazon proveen servicios de hosting en internet sin el cual la plataforma queda efectivamente offline. El bloqueo de aplicaciones en los Apple y Google stores constituye una barrera de acceso para los usuarios a nuevas plataformas, afectando la innovación y la competencia. En el caso de Google el precedente aparece incluso más problemático en tanto algunos de sus productos compiten directamente con aplicaciones como la que en estos días la empresa decidió bloquear. El precedente indudablemente constituye una amenaza para la libertad de expresión en la era digital y urge deliberar y delinear claramente las obligaciones y las responsabilidades de estos actores en el nuevo ecosistema digital.

Pero incluso la acción de plataformas como Twitter y Facebook, que claramente encuadra en la lógica de moderación de contenidos, resulta problemática en estos casos y hasta incómoda para las propias empresas. Los ToS en general no distinguen entre distintos tipos de usuarios ni establecen a cabalidad cómo las pocas distinciones que sí hacen se interpretan o aplican, especialmente al discurso político y de interés público. Si bien existen algunas normas que diferencian funcionarios públicos y otras figuras públicas del resto de los usuarios, muchas veces estas distinciones se hacen desde una lógica distinta, hasta opuesta, a la de derechos humanos. La especial protección que en el derecho internacional de los derechos humanos ha de darse al discurso político y de interés público no está cabalmente establecida o definida para los fines de moderación de contenidos. Indudablemente estas plataformas tienen un rol fundamental para el discurso público. Son un medio directo de comunicación con altos funcionarios y de ellos con sus representados que hasta ahora no teníamos. Precisamente por ello urge pensar el contenido político no solo desde una perspectiva individual de la libertad de expresión del funcionario o candidato de turno (su derecho a hablar), sino desde una perspectiva más amplia. Toca considerar también el derecho de los demás de conocer sus opiniones e ideas y de ejercer un escrutinio necesario sobre sus representantes. Además, toca contemplar que las expresiones de funcionarios públicos en ejercicio de sus funciones son información pública, sujeta a regímenes administrativos y legales distintos a otro tipo de informaciones e ideas. La incorporación de estos elementos en el debate de los términos y condiciones de servicio contribuiría a definir criterios claros y replicables no solo para EEUU sino para cualquier otro debate en torno a la expresión de funcionarios públicos a nivel global.

A esto se suma que la distinción tradicional entre discurso legal y discurso ilegal no tiene una firme correspondencia en los términos y condiciones de servicio de las empresas de internet. Incluso hasta el día de hoy se debaten incentivos legales, sobre todo en Europa, para que las empresas amplíen aun mas las restricciones de discursos legales pero dañinos en la definición de sus reglas. Los ToS incluyen indistintamente restricciones a discursos protegidos y discursos no protegidos por el derecho a la libertad de expresión. Más aún, muchas veces incluso ofrecen definiciones alternativas a las definiciones internacionales que existen de ciertas restricciones (discurso de odio, por ejemplo) y luego interpretan y aplican dichas normas de manera también distinta a la que ofrece la jurisprudencia de los tribunales especializados.

El profesor Balkin sostenía hace poco que no importa la teoría de libertad de expresión a la que uno adscriba, la realización de los valores que a ella atañen depende de la creación, curaduría y diseminación de conocimiento por parte de instituciones intermediarias y profesionales en las que el público en general confíe.  Indudablemente en Internet dichas instituciones aun no se consolidan. Lalegitimidad de estas institucionespara cumplir las funciones que Balkin les asigna depende en gran parte de la existencia de normas claras, tanto públicas como privadas, respetuosas de los derechos humanos, previsibles, escalables y replicables. Los incentivos legales y la autorregulación han de conjugarse para evitar la ambigüedad, la discrecionalidad y la opacidad en la gestión del debate público, especialmente cuando el discurso moderado es discurso de interés público y/o discurso político u otros discursos especialmente protegidos.  Toca trabajar para lograr que esa legitimidad se logre.

Por: Agustina del Campo @AgustinaDelCamp

(1) Nota preparada y publicada en el informe anual de la FLIP (Colombia) en enero de 2021.