Online y offline, una distinción confusa para la moderación de contenidos

Diversas investigaciones muestran que ciertos discursos pueden trasladar efectos del entorno digital al físico. Esto ha llevado a las plataformas a considerar el contexto social y político, la naturaleza del emisor, la audiencia y la inminencia del daño en el mundo offline antes de eliminar o tomar alguna medida contra una publicación. También ha llevado a que consideren conductas y contenidos fuera de las plataformas para evaluar lo que ocurre en ellas.

En la sentencia T-256 de 2025, la Corte Constitucional analizó el uso de “contenido fuera de línea (offline) como factor para la moderación de contenidos”. Sin embargo, al hablar de “contenido” se refirió tanto a contenido como a conductas y al referirse a lo “offline” se refirió tanto a lo que ocurre en el mundo físico como a lo que ocurre en otras plataformas. En su fallo, la Corte determinó que Meta había incurrido en una conducta discriminatoria, al suspender la cuenta de Instagram de Esperanza Gómez, conocida actriz de contenido para adultos, no por las publicaciones que hacía en esa red social, sino porque las interpretaba a la luz de sus actividades en otras redes sociales y en el mundo real.

El criterio de contenido “fuera de la plataforma” nos parece el más adecuado ya que evita las confusiones incurridas por la Corte y permite indagar sobre los criterios para la toma de decisiones de moderación de contenidos por parte de las plataformas. Como ejemplifica el caso, existe la posibilidad de que las compañías de redes sociales realicen una evaluación off-platform sobre aquello que ocurre fuera de su servicio, ya sea en otras plataformas (aun de la misma empresa), desconectados de Internet, o en el ámbito físico.

Off-platform

La evaluación off-platform puede perseguir fines valiosos, como prevenir el acoso en línea o el discurso de odio que incita a la violencia. Sin embargo, según cómo se lleve a cabo, puede implicar afectaciones a la libertad de expresión y privacidad de los usuarios. 

Existen ejemplos de la “codificación” de estas prácticas en otras plataformas. Twitch tiene una política explícita: la plataforma contempla la posibilidad de evaluar conductas off-service como fundamento para adoptar medidas disciplinarias. Para ello describe un listado de conductas que van desde la violencia letal a difundir persistentemente desinformación dañina. YouTube  introduce una regla ambigua que dice que podrá tomar medidas si el comportamiento de un creador dentro o fuera de la plataforma perjudica a sus usuarios, comunidad, empleados o ecosistema. Medium establece que no permite contenidos ni cuentas que participen en campañas dentro o fuera de la plataforma, o entre plataformas, de acoso, discurso de odio, violencia o desinformación. Meta no aclara si realiza esta práctica, pero la Corte consideró que sí.

El contraste muestra un panorama diverso: desde políticas expresas, fórmulas generales y abiertas que dejan un amplio margen de discrecionalidad, hasta supuestos en los que la evaluación de conductas off-platform se realiza sin que esté estipulado expresamente.

Implicancias

En línea con Marinett,  es necesario tener una discusión más amplia sobre esta práctica que puede implicar altos niveles de intromisión en la privacidad, igualdad y libertad de expresión de los usuarios. 

Las plataformas carecen de experiencia institucional y de salvaguardas necesarias para indagar por fuera de sus servicios. No son tribunales ni agencias de investigación. Como muestra el ejemplo de Twitch, a veces deben decidir con base en pruebas aportadas por terceros, sin contar con estándares claros sobre su obtención, verificación y valoración. Además, al evaluarlas suelen aplicar un estándar laxo, basado en la probabilidad de ocurrencia del comportamiento prohibido, que es problemático cuando están en juego derechos fundamentales. 

Cuando la propia compañía recaba las pruebas off-platform, tampoco es claro que cuente con la capacidad técnica y expertise para producirlas y ponderarlas correctamente. Sabemos que en algunos casos han tercerizado esta evaluación a estudios jurídicos, lo que abre otra dimensión de análisis. 

Bajo estándares de derechos humanos, las empresas deben proveer mecanismos efectivos de revisión y apelación y mantener políticas de transparencia respecto de la obtención de “evidencia” y de las medidas basadas en contenido o conductas off-platform, especialmente cuando la sanción sea la suspensión indefinida, ya que puede afectar gravemente la libertad de expresión, el derecho a la igualdad y no discriminación y la fuente de ingresos del usuario. También es importante que los usuarios sepan que las plataformas llevan a cabo esta actividad y qué tipo de conductas o contenidos son tenidos en cuenta. 

Algunos casos involucran denuncias de violencia, acoso o delitos off-platform, lo que exige manejar información sensible y, razonablemente, preservar la intimidad del denunciante manteniendo su anonimato. Sin embargo, ello debería reforzar las exigencias de debido proceso y transparencia a las plataformas. También es importante delimitar si en su análisis evalúan actividades off-platform por su impacto directo en otros usuarios de la propia plataforma o si las toman en cuenta por otros factores. 

Los usuarios no son homogéneos dentro del entorno digital. No es lo mismo una cuenta comercial que la de un funcionario público, un influencer con alta capacidad de amplificación, una institución o un “usuario común”. Quizás el estándar no deba ser uniforme, sino que tenga que ajustarse a la naturaleza del rol, impacto potencial y función comunicativa que cada cuenta o usuario desempeña.

Finalmente, existe una cuestión adicional: ¿las plataformas recopilan información off-platform para fines distintos de la moderación? Si recurren a prácticas similares al OSINT (inteligencia en fuentes abiertas), deberían explicitar bajo qué criterio y con qué fines. En el peor de los casos, esta práctica podría ser cooptable por Estados autoritarios. Además, puede generar un chilling effect. Por ejemplo, los influencers pueden abstenerse de realizar cierto tipo de actividades legítimas si saben que esto puede impactar en la monetización de sus cuentas.

En los últimos años hemos pasado de un modelo de laissez-faire a uno que les impone a las plataformas mayores deberes en la moderación de contenidos, tal como evidencia la sentencia en el caso de Esperanza Gómez. La consideración de conductas o contenidos off-platform manifiesta este desplazamiento. De convertirse en una práctica regular, por su nivel de intromisión y por sus potenciales efectos sancionatorios, será necesario que las plataformas refuercen la transparencia de sus normas comunitarias y procesos de moderación de contenidos, garantizando la igualdad y no discriminación y el debido proceso para asegurar una protección efectiva de la privacidad y la libertad de expresión de sus usuarios.


Este texto fue publicado originalmente en La Silla Vacía.