El uso de las redes sociales está mediado por las reglas que cada plataforma dispone para el comportamiento de sus usuarios en la comunidad. Conocidas como normas comunitarias, éstas establecen lineamientos para la creación de cuentas, uso de material de terceros y difusión de contenidos, entre otros. Para la mayoría de las personas, las normas comunitarias suelen pasar desapercibidas o sólo existen cuando interfieren de alguna forma en la experiencia de uso. Es decir: se vuelven parte de la letra chica que nunca leen.
Este entorno informal de regulación y adjudicación de las redes sociales –entendido generalmente como la actividad de moderación de contenidos– suele entrar en tensión permanente con leyes nacionales e instrumentos internacionales de derechos humanos. En particular, hay muchas preguntas sobre el ejercicio de la libertad de expresión, el debido proceso y la transparencia.
Este año, tanto la pandemia del covid-19 como las elecciones presidenciales en Estados Unidos ilustraron la magnitud de este tema. Por un lado, y como lo aborda el CELE en un texto próximo a publicarse, la pandemia llevó a las redes sociales a crear reglas sobre la marcha para contener la desinformación y darles mayor visibilidad a las fuentes de salud pública.
Por el otro, las acusaciones falsas de fraude electoral que Donald Trump ventiló públicamente durante la campaña obligaron a estos intermediarios a prepararse para un escenario que efectivamente se dio: el presidente de Estados Unidos usó Twitter y Facebook para minar el proceso democrático de su país. La respuesta inédita y no exenta de polémica de las redes sociales fue advertir y etiquetar de manera constante la desinformación en boca de Trump y el Partido Republicano.
En este contexto surge LetraChica : una iniciativa del CELE, con el apoyo de Linterna Verde, para darle más luz al proceso de construcción de las normas comunitarias de Facebook, Twitter y Youtube. Nos interesa entender cómo se dan esos cambios a lo largo del tiempo, donde están incluidos, cómo se traducen al español y de qué manera responden a contextos políticos y sociales particulares.
¿Qué hacemos y cómo?
Letra Chica monitorea los cambios a las normas comunitarias de Facebook, Twitter y Youtube desde las siguientes fuentes:
- Cambios en URL. Utilizando un software automático, Letra Chica monitorea desde mayo de 2020 aproximadamente 300 enlaces o URL donde están consignadas las normas comunitarias de Facebook, Twitter y YouTube en inglés y español. Cada 24 horas, la herramienta revisa el contenido de los sitios y envía una notificación de cualquier cambio. Cualquier cambio, literalmente: registra incluso la adición de una coma.
- Anuncios oficiales. Revisamos constantemente los blogs y sitios de noticias de las plataformas. Allí se anuncian medidas que en algunas ocasiones no aparecen en las normas comunitarias e incluso se explica la motivación de ciertos cambios.
- Actualizaciones recientes, actas del equipo del producto e informes de transparencia. Facebook, en particular, divulga las actas de reunión del equipo de producto de la compañía (Product Policy Forum), donde se analizan las reglas y se discuten posibles cambios. Facebook también tiene un sitio de Actualizaciones recientes (Recent Updates), donde muestra los cambios que ha hecho a sus normas comunitarias desde mayo de 2018 y donde en ocasiones se encuentra más información sobre la justificación de los cambios. Finalmente, Facebook y YouTube publican informes periódicos sobre la implementación de sus normas. Revisamos estos documentos para detectar actualizaciones relevantes.
El sitio de Letra Chica recoge y explica el resultado de este proceso. Igualmente, ofrece algunos análisis y remite a otras fuentes de información relevantes. Teniendo en cuenta la magnitud de esta tarea, en esta primera etapa centramos los contenidos de Letra Chica en las siguiente políticas: (i) discursos de odio; (ii) desnudos y contenido sexual; (iii) elecciones y otros procesos de participación ciudadana y (iv) excepción de interés público. Otras categorías se irán incorporando a medida que el proyecto se desarrolla. Los artículos están acompañados por tablas que señalan y describen cada uno de los cambios.
¿Por qué en inglés y en español?
Hacemos seguimiento de los cambios en ambos idiomas porque queremos entender qué tanto tardan las plataformas en adoptar los cambios para los países hispanohablantes luego de haberlos introducido en la versión original en inglés. Además, queremos identificar diferencias relevantes entre el texto original y su traducción al español.
Nos hemos dado cuenta de que algunos cambios se demoran en llegar a la versión en español. Por ejemplo, modificaciones hechas por Facebook a su política sobre discurso de odio en relación con los insultos (febrero de 2020) o la prohibición del negacionismo del Holocausto (octubre de 2020) no se han hecho en español. No es claro si la falta de incorporación del cambio significa que la nueva norma no es aún aplicable en los países hispanohablantes, o sí se aplica a pesar de su falta de traducción.
Por otra parte, las traducciones no siempre son claras. Por ejemplo, como parte de su política sobre lenguaje que incita al odio, Facebook prohíbe los llamados a la exclusión. Sin embargo, permite el uso de lenguaje con exclusión de género (gender-exclusive language en inglés) para controlar el ingreso a grupos de apoyo relacionados con la salud, como un grupo de lactancia exclusivo para mujeres. No obstante, la expresión gender-exclusive language fue inconvenientemente traducida a español como “lenguaje sexista”.
¿Qué hemos encontrado?
Un primer hallazgo temprano en el proceso fue que el ejercicio aparecía mucho más complejo de lo que el sentido común hubiera indicado por la forma como las plataformas crean y presentan sus normas. Las normas que impactan la actividad de los usuarios se encuentran dispersas en múltiples instrumentos, sitios y formatos. Los ajustes coyunturales, como los hechos por la pandemia o las elecciones estadounidenses de 2020, no siempre se hacen en el cuerpo de las normas comunitarias, sino que se anuncian de forma menos ordenada en los blogs de las empresas o, en el caso de Facebook, en la cuenta personal de su director ejecutivo, Mark Zuckerberg.
Algunos documentos tienen elementos de juicio adicionales sobre la aplicación de las reglas, elementos que no necesariamente se encuentran en las normas comunitarias. Por ejemplo, en su política sobre discurso de odio Facebook prohíbe las generalizaciones (“los inmigrantes son terroristas”), pero permite las afirmaciones relacionadas con comportamientos puntuales (“un inmigrante de 19 años apuñaló a una mujer ayer”), siempre que tales afirmaciones sean “calificadas”. Pero la política no explica qué es una afirmación calificada. La respuesta está en las ya mencionadas actas de las reuniones del equipo de producto de Facebook: las afirmaciones permitidas son las que incluyen: (i) calificativos que limiten el alcance de las características protegidas (como la raza, la nacionalidad, el género o la religión) (ii) indicadores de que las afirmaciones se refieren a un evento, patrón de eventos o discusión sobre comportamiento general en específico o (iii) lenguaje que describa experiencias directas o reportaje (por ejemplo “yo vi” o “esto me pasó a mí”).
En este mismo sentido, es difícil saber cuándo una plataforma está efectivamente cambiando sus normas o cuándo simplemente las está haciendo más transparentes. Siguiendo el ejemplo anterior, si Facebook llevara a sus normas la explicación de las afirmaciones “calificadas” no estaría cambiando la norma, sino haciendo más transparente la manera en como ya la aplica.
Finalmente, hemos visto que el sitio de ‘Actualizaciones recientes’ de Facebook es un recurso valioso, pero no plenamente confiable. Por ejemplo, en agosto de 2019, Facebook hizo un cambio en la prohibición sobre difusión consentida de imágenes íntimas, pero en sus ‘Actualizaciones recientes’ marca el cambio en diciembre de 2019.
¿Qué aporta y qué límites tiene el proyecto?
Letra Chica es un proyecto pionero en la región. Sin embargo, no está exento de limitaciones para tener en cuenta. En primer lugar, dependemos del buen funcionamiento de la herramienta de monitoreo automatizado. En segundo lugar, hemos enfrentado y enfrentaremos dilemas técnicos, como el hecho de que en algunos casos el software solo permite capturar la versión para móviles de algunas URL –y, en consecuencia, puede haber discrepancias con la versión para escritorio–. Finalmente, es imposible descartar algún error humano a la hora de comparar y explicar los cambios.
Ante una tarea titánica como la que nos propusimos, hemos optado por desarrollar el monitoreo por etapas, corregir y adaptar la metodología constantemente, y explicar de manera clara los avances y el producto. En este blog podrán hacerle seguimiento a ese proceso.
El objetivo, en últimas, es claro: con este sitio, el CELE y Linterna Verde quieren hacer un aporte informado y técnico a la discusión sobre moderación de contenidos en internet, el que es tal vez el debate más importante sobre el ejercicio de la libertad de expresión en el entorno digital. Y lo queremos hacer desde la perspectiva del conocimiento y el contexto de nuestra región.