Notas de la comunidad en Meta: una nota sobre su comunidad

Meses atrás, Meta presentó un cambio sustancial en su estrategia de moderación de contenidos. En el centro de esta transformación se encuentra la suspensión —al menos parcial— de su programa de fact-checking en ciertos países, hasta ahora encargado de verificar la veracidad de publicaciones y etiquetar aquellas que contenían información falsa o engañosa. En su reemplazo, Meta introdujo las denominadas community notes, una herramienta que transfiere la facultad (y, en cierta medida, la responsabilidad) de la validación del contenido a los propios usuarios. El sistema de notas, por ahora, sólo está activo en Estados Unidos.

Según el comunicado oficial de Meta, esta decisión responde al objetivo de “reducir errores y fomentar un discurso más amplio”. A diferencia del sistema de fact-checking, que dependía de una red de organizaciones externas de expertos para identificar y rectificar desinformación, las community notesya probadas en X/Twitter– están diseñadas para funcionar de manera colaborativa: en términos generales, usuarios seleccionados pueden añadir notas a publicaciones que consideren problemáticas, y estas anotaciones serán visibles sólo si un número significativo de otros usuarios las valida como precisas y útiles.

La idea es prometedora: al descentralizar la tarea de moderación y distribuirla entre los usuarios, el modelo tiene un alcance potencialmente mayor y puede adaptarse más rápido a los cambios en el contenido viral — no escasean las investigaciones que señalan sus méritos. La compañía, por su parte, asegura que el nuevo sistema está funcionando.

De todos modos, no conviene leer el repliegue de Meta simplemente como una renuncia a una estrategia acaso perfectible, sino como una apuesta más general para superar la crisis de legitimidad que las plataformas enfrentan. Zuckerberg propone, en consecuencia, el viraje hacia un modelo que pretende complementar —cuando no suplantar, al menos en lo que respecta a la lucha contra la desinformación— la supervisión vertical con la moderación distribuida y el juicio comunitario.

¿Quiénes pueden ser colaboradores? Usuarios de más de 18 años, cuyas cuentas tengan más de seis meses de antigüedad y cuenten con un número de teléfono verificado o hayan configurado la autenticación en dos pasos. “Para que una cuenta esté en regla, no debe haber infringido nuestras políticas destinadas a prevenir los daños más graves (como terrorismo, explotación sexual infantil, fraude y estafas) y no debe haber incumplido repetidamente nuestras otras políticas”, explica Meta. Cómo esos usuarios habilitados son finalmente seleccionados permanece un completo misterio.

Cambia, todo cambia

Lejos de ser una excepción histórica, esta no es la primera vez que Meta modifica estratégicamente sus políticas de moderación — y, probablemente, tampoco sea la última. 

En 2016, atenta a las preocupaciones por la desinformación que marcaron las elecciones presidenciales estadounidenses de ese año, y a modo de anticipación a los comicios de 2020, la compañía había optado por intensificar sus mecanismos de control. Por entonces, implementó el sistema de fact-checking cuyo desmantelamiento hoy atestiguamos, y estableció restricciones estrictas sobre el contenido político patrocinado. El tono del anuncio de Zuckerberg era inequívoco: “nos tomamos muy en serio la desinformación. (…) Hemos logrado avances importantes, pero todavía queda mucho trabajo por hacer.”

Las resistencias a estas medidas no tardaron en llegar. Sectores conservadores denunciaron un supuesto sesgo ideológico en las prácticas de moderación, argumentando que la plataforma restringía sistemáticamente voces alineadas con su agenda política. El escepticismo se intensificó tras las elecciones de 2020, cuando las grandes plataformas fueron acusadas de intervenir selectivamente en la circulación de información

Con el mismo tono inequívoco, pero esta vez con un diagnóstico diferente, Zuckerberg anunció, nueve años después del lanzamiento del programa de fact-checking (y más de 100 millones de dólares invertidos mediante), que era conveniente “deshacer la expansión de la misión que ha hecho que nuestras reglas sean demasiado restrictivas y propensas a una aplicación excesiva.”

No debería sorprendernos, entonces, que el giro actual de Meta hacia las community notes sea, como lo fuera en otras circunstancias, resultado de determinadas tensiones políticas — o, como el propio Trump prefirió insinuar, una condescendiente respuesta a las amenazas que él mismo impartió.

Una cuestión comunitaria

Recapitulando. Si el fact-checking representaba una forma institucionalizada y visible de intervenir en la conversación digital —basada en criterios conocidos, actores identificables y estándares profesionales—, los modelos que ahora se imponen buscan diluir esa autoridad en esquemas comunitarios de gobernanza. Esta transición hacia un modelo en apariencia más horizontal es, además, una respuesta, al menos parcial, a un zeitgeist político que privilegia la apariencia de neutralidad sobre la intervención activa.

Ahora bien: lo que parece estar en juego, entonces, es menos la presentación de una nueva herramienta de moderación que la irrupción de una forma ¿novedosa? de pensar, por un lado, qué es una comunidad digital, y por el otro, cómo se construye y quién tiene legitimidad para intervenir en ella. El concepto de comunidad no es un término neutro. Según cómo se defina, se diseñan reglas, se establecen jerarquías y se organiza la conversación pública. A partir de estas decisiones, Meta no sólo cambia cómo modera contenidos: también reconfigura la forma en que imagina —y habilita— los vínculos entre sus usuarios.

Este tipo de herramientas, promovidas como una respuesta democrática y plural al problema de la moderación, tienen a su favor una premisa potente: la comunidad como fuente de saber. Lejos de tratar al público como un receptor pasivo, se le otorga agencia para deliberar, etiquetar, corregir. Punto a favor de Meta.

De todos modos, el carácter distribuido no garantiza, por sí mismo, inclusión, ni transparencia, ni justicia epistémica. Más aún: en muchos casos, estos sistemas operan bajo una lógica poco transparente. En el sistema de las community notes, por ejemplo, no existe un proceso de doble ciego, donde ninguna de las dos partes conoce la identidad de los demás — como sucede en muchos journals académicos. Por el contrario, las notas de la comunidad se basan en un proceso de revisión simple-ciego: sólo la identidad de los autores de las notas permanece anonimizada.

Para mitigar los sesgos que pueden reproducirse en ese microproceso deliberativo, Meta comenta que

La publicación de una nota no se basa en la regla de la mayoría: para que una nota se publique, personas con diferentes puntos de vista y que normalmente están en desacuerdo, según su historial de calificaciones, deben coincidir en que la nota es útil. Por ejemplo, si dos colaboradores que no suelen estar de acuerdo en que una nota es útil coinciden en que una nota lo es, entonces esa nota tiene más probabilidades de publicarse.” 

¿Se trata, entonces, de un esquema destinado a perjudicar a los usuarios a los que se les aplican estas notas? Salvando las múltiples diferencias, la comunidad científica puede darnos algunas valiosas lecciones.

En los debates sobre revisión por pares, la modalidad simple-ciego —como la que implementa Meta— se ha defendido por su capacidad para proteger a quienes producen las evaluaciones, reduciendo el riesgo de represalias o presión social. Pero también ha sido criticada por facilitar la opacidad, la irresponsabilidad y la reproducción de sesgos estructurales.

En cambio, los modelos abiertos de revisión —donde se conocen las identidades de autores y revisores— fomentan la transparencia y la rendición de cuentas, aunque pueden inhibir el disenso, especialmente frente a figuras reconocidas. El sistema de Meta intenta compensar ese riesgo con pluralismo estadístico: si personas usualmente en desacuerdo coinciden en que una nota es útil, se publica. Pero la deliberación permanece cerrada y asimétrica: quienes leen la nota no pueden saber quién la escribió, ni bajo qué criterios se consensuó.

La consecuencia es que se limita el poder epistémico del usuario receptor, que no puede auditar el proceso ni participar de sus reglas. La comunidad, entonces, aparece como un actor abstracto, sin rostro ni rendición de cuentas. Y eso no es menor: porque una comunidad digital no sólo se define por los contenidos que circulan, sino por las formas en que se habilita —o restringe— el derecho a disputar su significado.