Nuevamente, Mark Zuckerberg, Jack Dorsey y Sundar Pichai tuvieron que responder las preguntas del Congreso de los EE. UU. Los directores de Facebook, Twitter y YouTube fueron citados a declarar sobre la desinformación y el extremismo en sus plataformas. Pero esta vez el llamado parecía personal: el 6 de enero de 2021, una turba de gente desinformada asaltó el Capitolio atemorizando a los congresistas, en protesta por el supuesto fraude electoral que le quitó la presidencia a Donald Trump. El objetivo de la audiencia era evaluar cuál había sido el rol de las plataformas en promover la insurrección.

 

Lo que está en juego no es poco: la discusión de fondo es si el Congreso debería reformar la Sección 230 de la Ley de Decencia en las Comunicaciones. Esta legislación le da amplia inmunidad a las plataformas: no son responsables frente a lo que publican sus usuarios, pero tampoco lo son si deciden moderar contenidos. Por esta razón, tanto los congresistas que quieren que las plataformas tomen más control como los que las cuestionan por bloquear contenidos o cuentas están interesados en modificarla.

 

Por supuesto, la pandemia también estuvo en la discusión. Aunque las plataformas tomaron medidas para intentar controlar contenidos dañinos, la desinformación sobre el coronavirus aún habita en las plataformas. Al respecto, les recomendamos leer ¿La nueva normalidad?, el último paper del CELE, que aborda la respuesta de las plataformas a la desinformación sobre el virus.

 

Como es ya usual, la audiencia decepcionó. Aquí va lo bueno, lo malo y lo feo de la audiencia. Además, la propuesta de Facebook sobre cómo debería funcionar la regulación.

 

Lo bueno

  • A las preguntas sobre posible regulación, los tres directores estuvieron de acuerdo en que es necesario que las plataformas sean más transparentes sobre sus procesos de moderación de contenidos.
  • Sin titubeos, los directores reconocieron que los contenidos dañinos que transitan en sus plataformas tienen efecto más grave en minorías y comunidades afroamericanas.

 

Lo malo

  • El tema propuesto para la discusión era el rol de las plataformas en la promoción de la desinformación y el extremismo. Sin embargo, como es usual, las preguntas se fueron por todas las ramas: ¿qué están haciendo para controlar la desinformación, los suicidios, las drogas ilegales, el bullying, el discurso de odio, el sentimiento antiasiático, el tráfico ilegal de personas en la frontera con México, etc.? Y además: ¿cómo aseguran la diversidad racial en el ambiente de trabajo, cómo protegen los datos, cómo aseguran la libre competencia, etc.? Los congresistas buscaron abarcar mucho y, en consecuencia, apretaron poco.
  • La dinámica no funcionó bien. Cada congresista del comité tenía tres testigos y cinco minutos para hablar. En el afán de buscar conclusiones absolutas en poco tiempo, insistían en hacer preguntas de sí o no, mientras que los directores insistían en dar explicaciones complejas a cuestiones complejas. La comunicación frecuentemente no funcionó y la audiencia resultó mayormente infructuosa.

 

Lo feo

Algunos congresistas no hicieron la tarea y, como es usual, hicieron preguntas fuera de lugar. Uno de ellos le preguntó a Mark Zuckerberg, director de Facebook, que cómo usaban YouTube él y sus hijos. Otro les preguntó a los tres si ya habían visto el documental The Social Dilemma. Otro, que si ya se habían vacunado contra el coronavirus.

 

¿Qué propone Facebook para la regulación?

Mark Zuckerberg fue quien más tiempo estuvo en pantalla. Gran parte de la atención de los congresistas se centró en Facebook. Aunque las tres plataformas hablaron de regulación en pro de la transparencia, fue Zuckerberg quien planteó la propuesta más elaborada:

 

  • Que las plataformas tengan la obligación de controlar el contenido “claramente ilegal” (el bullying, por ejemplo, no es claramente ilegal; la explotación sexual infantil y el terrorismo, sí).
  • Que las plataformas mantengan inmunidad, la cual se ganan si cumplen con estándares de “mejores prácticas”. Es decir, demostrando que cuentan con sistemas para identificar y eliminar contenido ilegal. Sin embargo, aclara que las plataformas no deberían ser responsables si un contenido en particular escapa a dichos sistemas.
  • Que esta obligación sea proporcional al tamaño de las empresas, de forma que no se hagan exigencias que impidan la competencia de nuevos y más pequeños actores en el mercado.

 

La propuesta, que a primera vista podría parecer sensata, ha recibido críticas: en últimas, la compañía propone una idea de regulación hecha a su medida. Si se trata de fijar las “mejores prácticas” de la industria, Facebook puede argumentar que las suyas son las mejores. Además, según señala Mike Masnick, si las medidas de Facebook se convierten en el “estándar de la industria”, se generaría un incentivo para que otras empresas copien esta estrategia y dejen de proponer sus propias soluciones para el problema de la desinformación.

Para conocer más sobre cómo las redes sociales controlan actualmente la desinformación, le recomendamos visitar letrachica.digital, el proyecto con el que el CELE está haciendo seguimiento a los cambios de las normas comunitarias de las plataformas.

 

Escrito por Luisa Isaza  Tw: @luisaza

Autor