¿Qué tanto va a mejorar la moderación de contenidos con la nueva Corte Suprema de Facebook?
La ‘corte suprema’ creada por Facebook para revisar los casos más emblemáticos de eliminación de contenidos de la plataforma ya tomó sus primeras decisiones. Sin duda, está pendiente la más importante: recordemos que el Consejo asesor de contenido –como se conoce formalmente– también tiene en sus manos la decisión final sobre la eliminación permanente de la cuenta del ex presidente Donald Trump.
Por ahora, los primeros casos indican que si bien la junta está analizando las decisiones con elementos adicionales de contexto y ponderación –lo cual hace que sea un insumo valioso– difícilmente ese proceso resolverá los problemas en el proceso de moderación de la plataforma. Igualmente, las respuestas de Facebook a las recomendaciones del Consejo sobre cambios en las normas comunitarias indican que esta instancia no tendrá una influencia inmediata en este asunto estructural.
A continuación se da un breve contexto sobre la creación del Consejo, se comenta el proceso de toma de decisiones y se analizan las respuestas de Facebook a las recomendaciones de cambios en sus políticas y procesos de moderación.
Un poco de contexto
En noviembre de 2018, Mark Zuckerberg anunció que Facebook crearía un cuerpo independiente de revisión final de sus decisiones de moderación de contenidos. La justificación detrás de la creación de este organismo, dijo Zuckerberg, era que Facebook no tomara por sí sola “tantas” decisiones importantes sobre libertad de expresión y seguridad.
En septiembre de 2019, Facebook publicó su Oversight Board Charter, el documento que explica la estructura y el mandato de esta ‘corte’, así como su relación con Facebook. La principal función del Consejo es la de estudiar algunas decisiones de moderación y revocarlas cuando lo estime necesario. Sin embargo, también puede hacer recomendaciones a Facebook sobre sus políticas de moderación.
En mayo de 2020, Facebook anunció a los primeros veinte miembros del Consejo, quienes en octubre empezaron a recibir sus primeros casos. De las siete decisiones de eliminación estudiadas, el Consejo ha revocado cinco y confirmado una. En uno de los casos no hubo decisión, luego de que el contenido dejara de estar disponible en la plataforma (en este link puede ver un resumen de los casos y las decisiones).
Las brechas entre el Consejo y los moderadores del día a día son inmensas
Los estatutos del Consejo asesor han definido un proceso complejo para el estudio y decisión de cada caso en máximo noventa días. En este tiempo, un panel de cinco miembros debe escuchar al usuario involucrado, estudiar el caso, deliberar, escribir un borrador de la decisión, presentarlo al resto de los miembros y tomar una decisión final. Además, el panel tiene la posibilidad de solicitar la opinión de expertos, los cuales, por ejemplo, pueden darle información sobre el contexto local.
Entre octubre de 2020, cuando se inició la recepción de casos, y marzo de 2021, el Consejo ha resuelto tan solo siete casos. Dos ejemplos sobre el nivel de de detalle del análisis:
- Un usuario publicó sin ningún contexto una cita incorrectamente atribuida a Joseph Goebbels, ministro de propaganda de Adolfo Hitler. La cita fue eliminada dado que Goebbels está incluido en la lista de personas peligrosas de Facebook. Ante el Consejo, el usuario explicó que su intención era comparar el sentimiento de la cita con la presidencia de Donald Trump. El Consejo le dio la razón al usuario, explicando que de las respuestas de los amigos del usuario podía inferirse que su intención no era la de emitir una expresión de apoyo a la ideología nazi.
- Un usuario publicó un video que promovía el tratamiento para el covid-19 con hidroxicloroquina y azitromicina, junto a un texto en el que criticaba al gobierno francés por no recomendar este tratamiento. La publicación fue eliminada por Facebook por contener información errónea que podía causar daños físicos inminentes. El Consejo revirtió la decisión de Facebook, resaltando que la publicación era una crítica a una política del gobierno y que Facebook no demostró que la publicación elevara el riesgo de daño dado que los medicamentos recomendados no son de venta libre en Francia y el contenido no alentaba a las personas a tomarlos.
Este nivel de detalle en el análisis del contexto contrasta fuertemente con el sistema de moderación del día a día, compuesto por una mezcla de algoritmos y moderadores humanos que deben tomar decisiones en cuestión de minutos. En ese proceso, difícilmente hay un análisis de los comentarios de los amigos de un usuario o un análisis sobre la relación entre el riesgo de daño y la disponibilidad comercial de un producto.
¿Escuchará Facebook las recomendaciones del Consejo?
Si las decisiones del consejo tienen efecto solamente respecto de las personas involucradas, ¿qué tanto podrá mejorar el sistema de moderación básico de Facebook? ¿Vale la pena siquiera el esfuerzo?
Algo interesante de este experimento es que el Consejo está teniendo acceso a información privilegiada sobre los procesos de moderación, que utiliza para hacer recomendaciones a Facebook, de acuerdo con su mandato. Este podría ser un camino para promover cambios con impacto generalizado, trascendiendo los casos concretos. Las primeras recomendaciones han mostrado que esta corte se ha interesado no solo en las normas sustanciales de moderación (qué prohíbe y qué permite), sino también en los procesos de aplicación de estas normas. Facebook se ha comprometido a dar respuesta de buena fe a todas las recomendaciones del Consejo (aquí puede ver un resumen de las recomendaciones y las respuestas de Facebook).
Al leer las primeras respuestas de Facebook se aprenden algunas cosas sobre su proceso de moderación: de acuerdo con Facebook, los algoritmos saben detectar el texto superpuesto en imágenes (como las palabras “cáncer de seno” en una imagen en Instagram), pero aún tienen dificultades para diferenciar la desnudez permitida de la prohibida; los sistemas de detección automática suelen ser tan precisos como los moderadores humanos y la mayoría de las apelaciones son revisadas por moderadores. ¿Pero podrán las recomendaciones determinar el curso de la moderación en la plataforma?
En términos generales, Facebook da tres tipos de respuesta: comprometido con la acción (“committed to action”), evaluando la viabilidad (“assessing feasibility”) y no se tomarán acciones adicionales (“no further action”). En la publicación del blog donde anuncia sus “respuestas detalladas”, Facebook dice que se compromete a “tomar medidas para atender 11 de las [17] recientes recomendaciones del Consejo”. Sin embargo, aunque Facebook sí se compromete con algunos cambios, otras respuestas parecen hacerle el quite a las recomendaciones:
- El Consejo recomendó que Facebook aumentara la transparencia de sus procedimientos de moderación en relación con el contenido relativo a la salud, a través de la publicación de un informe de transparencia sobre cómo se aplicaron las normas durante la crisis por la pandemia. Según el Consejo este informe debería incluir: datos sobre cantidad de eliminaciones y otras medidas de cumplimiento de las normas, desglose del tipo de contenido sobre el que se aplicaron, forma de detección, desglose por región e idioma, métricas sobre eficacia de medidas menos invasivas que la eliminación, datos sobre apelaciones y conclusiones y lecciones aprendidas. La respuesta de Facebook fue la de estar “comprometido con la acción”. Sin embargo, el compromiso con la acción en este caso fue el de recordar que ya publica regularmente información sobre sus esfuerzos para combatir la desinformación sobre el covid-19 (como publicaciones removidas, etiquetas aplicadas y número de visitas a su centro de información sobre covid-19). Facebook también dijo que continuará buscando formas de comunicar la eficacia de sus esfuerzos. Sin embargo, aclaró que no planea incluir una categoría adicional en su informe de transparencia, dado que la pandemia es una situación particular y temporal.
- Algunas respuestas simplifican la recomendación dada por el Consejo, de forma que no es claro el alcance del compromiso. Por ejemplo, el Consejo recomendó adoptar medidas de cumplimiento de las normas que sean menos invasivas en lo que respecta a la información errónea relativa a la salud. La recomendación venía con detalles: aclarar los daños que se busca prevenir, ser transparente sobre cómo se evalúa el daño, evaluar la gama actual de herramientas para tratar estos casos y considerar el desarrollo de herramientas menos invasivas, publicar sus diversas opciones de cumplimiento dentro de las normas y clasificarlas según qué tan invasivas sean, explicar cómo se selecciona la opción menos invasiva y aclarar en las normas qué opción de cumplimiento corresponde a cada regla. Facebook dijo estar comprometido con la acción, y en su respuesta recordó que pronto lanzará un Centro de Transparencia en el que viene trabajando hace meses, en el que dará más detalles sobre lo que no se permite y sobre cuándo se elige la opción de dar más contexto y usar etiquetas en vez de eliminar contenido.
- Tampoco es claro el alcance de compromisos como “Continuaremos invirtiendo en hacer nuestros modelos de aprendizaje automático mejores en detectar las clases de desnudez que sí permitimos”. Al parecer, este es un esfuerzo que ya se venía realizando (“continuaremos”) y Facebook no se compromete con fechas o indicadores concretos para mostrar mejoras.
- El Consejo recomendó que, en conjunto con partes interesadas relevantes, Facebook realizara una evaluación sobre el impacto de sus decisiones en los derechos humanos como parte del proceso de actualización de reglas. El compromiso con la acción aquí fue el de (i) pedir al Consejo aclarar si la recomendación se relaciona con todas las modificaciones de las reglas o las modificaciones relacionadas con la desinformación del COVID-19 y (ii) basado en esto, evaluar si hay oportunidades para fortalecer la inclusión de principios de derechos humanos en el proceso de desarrollo de políticas.
- Algunas respuestas de “evaluando viabilidad” parecen insuficientes. Por ejemplo, el Consejo recomendó que siempre se informara a los usuarios si un sistema automatizado intervino en la decisión de eliminación de un contenido. Facebook está evaluando si dar esta información puede causar más confusión entre los usuarios, argumentando que los sistemas automatizados suelen ser tan precisos como los moderadores humanos. En otra recomendación, el Consejo sugirió que se informe a los usuarios la regla específica dentro de la política que justifica la eliminación. Facebook está evaluando la viabilidad de la sugerencia dado que ni los moderados ni los sistemas de inteligencia artificial están entrenados de esta manera. Facebook argumenta que no es técnicamente posible crear sistemas automatizados separados para cada frase de la política.
- Por último, Facebook no respondió de ninguna manera a la recomendación de implementar un proceso de auditoría interno para analizar de forma constante una muestra estadísticamente representativa de las decisiones automatizadas de eliminación de contenido que deban revertirse con el fin de aprender de los errores del sistema de cumplimiento de normas.
Esta primera ronda de recomendaciones y respuestas apunta a que el poder de esta ‘corte suprema’ será limitado. Sin embargo, vale la pena darle un tiempo a las interacciones entre el Consejo y Facebook para entender su alcance. Por ahora, el experimento sigue siendo lo suficientemente interesante como para querer seguirle la pista.
Proyecto conjunto @linterna-@celeup