Contenido legal pero dañino y poca previsión en la supervisión
La semana pasada tuve el honor y el gusto de participar en la conferencia organizada por Columbia Global Freedom of Expression Program: Regulating the online public sphere: From decentralized Networks to Public Regulation. La conferencia, que tuvo más de 500 personas conectadas online escuchando los paneles, parece más relevante que nunca. Durante la conferencia, UNESCO anunció una reunión a realizarse en Febrero de 2023 para conversar un marco regulatorio para redes sociales y cita, entre otros argumentos, la existencia de más de 190 proyectos de ley alrededor del mundo que intentan regular plataformas de una u otra manera.
Como bien destacó Catalina Botero en su introducción como anfitriona de este evento, estamos viendo una batalla en torno a cómo tratar la expresión en internet. Y hay al respecto distintas teorías, que nuestra anfitriona destacó sucinta y claramente: 1) quienes sostienen que las plataformas pueden y deben autorregularse cumpliendo con estándares internacionales de derechos humanos al momento de implementar dicha autorregulación; 2) quienes suscriben que las plataformas deberían ser neutrales frente al contenido de sus usuarios y reguladas como compañías de teléfono, sin responsabilidad alguna por el contenido de terceros e incluso con la obligación de prestar a plataforma sin discriminacion alguna en torno al contenido (en inglés, common carriers); 3) quienes argumentan que la autorregulación de las plataformas hace parte del derecho a la libre industria y que el derecho contractual debe regir la relación entre usuarios y plataformas, entre contenido y moderación; 4) quienes equiparan a las plataformas a los medios de comunicación y por ende abogan por la aplicación de criterios de responsabilidad como editores. Me animo a decir que varias propuestas tocan elementos de las 4 posturas, incluso cuando ellas entran en franca y abierta contradicción.
Una primera observación que surge de las posturas planteadas y que acarreamos del día anterior cuando se discutieron propuestas de descentralización frente a los problemas de la moderación, es que no creo que existan consensos en torno a cuáles son “los problemas” que queremos resolver con dichos ejercicios. Sea que estemos pensando en herramientas de descentralización o en regulación de redes sociales, difícilmente puedan compararse las 190 propuestas pues me consta que algunas (e intuyo que muchas) persiguen objetivos radicalmente distintos y percepciones del “problema” incluso contradictorios. Ejemplo: si definimos “el problema” como el abuso de la censura privada de las plataformas, harán sentido soluciones como la propuesta en el numeral 2. Si definimos “el problema” como la proliferación de discursos problemáticos (un término que empieza a aparecer en ciertos documentos como término de arte, pero cuya definición es ambigua y poco clara per se) ante una mano discrecional y de injerencia desproporcionada en la moderación del debate público, veremos soluciones más alineadas con el numeral 1. Si en cambio vemos “al problema” como un problema editorial -entendiendo al hosteo y la moderación como posible aceptación del contenido- adquirirá preponderancia la propuesta del numeral 4. Si entendemos “el problema” como el incumplimiento (o la necesidad de hacer cumplir) lo pactado, la perspectiva que ofrece el numeral 3 sería quizás la más acertada. En definitiva, cuando hablamos de propuestas para solucionar los problemas de moderación de contenidos, conviene tener en cuenta que la definición del problema no es unívoca. O que no todas las propuestas definen el problema igual- explícita o implícitamente-. Probablemente todos estos sean en mayor o menor medida posibles problemas actuales y probablemente no podamos resolverlos con una sola propuesta regulatoria.
Sin haber leído los 190 proyectos, pero habiendo leído algunos, incluyendo buena parte de los que regularmente se citan en nuestras latitudes (Latinoamérica en general), me animé a decir en el panel del que me tocó hacer parte que existen dos contradicciones importantes en los proyectos regulatorios que hasta ahora hemos visto. El primero es que en el trasfondo de esta discusión, a mi entender, radica una problemática peculiar: qué hacer desde el derecho con el contenido o la expresión legal pero “dañina” (los norteamericanos, como siempre, son creativos y gráficos y apodan a esta distinción lawful but awful, o harmful but legal). La segunda contradicción queda en evidencia en los marcos de supervisión que muchas de estas reglas proponen, o incluso en la ausencia de dicha previsión . A lo largo de las próximas semanas iré subiendo algunos comentarios sobre el tema. Empiezo por lawful but awful. Sigo con la diferencia (posible) en la aproximación latinoamericana. La siguiente vamos con supervisión (que espero ya venga con link a un paper reciente que escribimos desde el CELE).
La categoría de expresión legal pero dañina no implica una contradicción en sí misma. Si bien un principio general del derecho civil es que todo daño debe ser reparado, hay excepciones. Hay conductas, acciones y omisiones, que el derecho asume como legales pero dañinas. Por ejemplo, fumar es según el Estado, legal pero dañino. Tomar alcohol es legal pero dañino. El margen de tolerancia que el derecho tiene frente al daño difiere de tema en tema. Yendo a uno más cercano al nuestro, en la jurisprudencia global de libertad de expresión hemos aceptado como universal que los funcionarios públicos tienen que tener un margen de tolerancia más amplio frente a la crítica y frente a las injerencias en su privacidad. La Corte Interamericana, por ejemplo, siguiendo a la Corte Europea, explica que la distinción no es por la persona sino por la función social que ella cumple en una sociedad democrática. Las calumnias e injurias contra funcionarios públicos raramente prosperan. Y ello porque la transparencia y la democracia requieren que el debate público en torno al ejercicio de su trabajo, su ética e integridad sea vigoroso. Hay potenciales daños a la honra y privacidad de los funcionarios públicos que el derecho manda tolerar, y por ende no son susceptibles de reparación ni pasibles de sanción alguna, salvo en casos excepcionales (real malicia). En la misma medida, el Marco Juridico Interamericano ya establece que el derecho a la libertad de expresión no solo ampara la expresión conciliadora e inocua sino también a las expresiones que “ofenden, resultan chocantes, o perturban a la mayoría”.
Cuando popularmente se habla de los problemas de la moderación de contenidos, la discusión se ha centrado en esto: contenido legal pero dañino. Algunos ejemplos, que abundan en los proyectos de ley más recientes: desinformación, discurso misógino, discurso problemático, discurso radicalizado, discurso polarizante, discurso ofensivo, discurso violento. Todos estos, en la forma que se han planteado en muchas de las propuestas que he visto, por mal que nos pese, hoy son discursos lícitos, legalmente protegidos. No existe una legítima razón para que el Estado los límite. Es más, existe una legítima razón para que el Estado no los limite.
El hecho de que el foco esté puesto en el discurso legal pero dañino puede tener diversos motivos. Intuyo, y de eso estoy escribiendo con Paulina Gutierrez, que la adopción de la sección 230 de la CDA puede ayudar a entender el foco en cierta manera: la CDA ofrece inmunidad para las empresas por el contenido de terceros y además ofrece inmunidad por la moderación que de ese contenido se haga. Algo similar, aunque no idéntico, sucedió en Europa con la Directiva de Comercio Electrónico. Nuestra teoría es que la sección 230 retiró la conducta de las plataformas del ámbito jurídico. Es más, la jurisprudencia posterior a la adopción de la sección 230 amplió esta inmunidad al punto que nada de lo que las empresas hagan con ese contenido de terceros pueda ni siquiera ser analizado desde el derecho. La inmunidad es tal que hasta ahora gran parte de las demandas han sido rechazadas de plano, sin entrar siquiera en un análisis posible. Esto, que al principio hizo que internet florezca, hoy hace que las acciones dentro de los distintos servicios que las plataformas prestan (ordenar, indexar, mostrar, hostear, moderar, recomendar, visibilizar, ocultar y los demás “ar” que se les ocurran) estén, en el imaginario actual, exentas de la órbita del derecho y libradas exclusivamente a la órbita de la ética, la moral y las buenas costumbres, o la responsabilidad social empresaria.
Si bien al principio, cuando las empresas del sector se dedicaban a unos pocos verbos (hostear, ordenar, indexar y alguno más), este esquema hacía sentido, ahora, con el poder que las empresas de internet tienen, particularmente las redes sociales, para informar, moldear, limitar o alimentar el debate público, la inmunidad parece complicada. En este escenario surgen las propuestas regulatorias modernas: las que se enfocan en contenido, pero también las que se enfocan en procesos.
Y aquí una segunda observación: la distinción entre contenido legal e ilegal la hace el Estado. La distinción entre contenido ético o responsable hasta ahora la hacían las plataformas. Sin embargo, la gran mayoría de las propuestas regulatorias de redes sociales que hoy vemos no son neutrales frente al contenido lícito. Lo que subyace es una preocupación Estatal por el discurso lícito y un afán por imponer nuevas limitaciones a la libertad de expresión desde la ética o la responsabilidad social empresaria. Gran parte de los proyectos y leyes que hoy vemos, incluyendo las que vienen a regular procesos, implican cierta re-negociación sobre los límites legítimos a la libertad de expresión en plataformas. Y en tanto lo que se regula es el medio por el cual la expresión circula, esa renegociación se hace de manera indirecta: poniendo sobre la empresa la obligación de autorregularse para evitar daños en sentido amplio y no estrictamente jurídico; generando obligaciones para las empresas respecto al discurso lícito pero “problemático” de sus usuarios. Daños que conforme nuestras leyes sustantivas son lícitos, o por lo menos frente al derecho, deberían ser tolerables.
El “problema” de la moderación de contenidos en general no es el discurso ilegal. Las expresiones ilícitas están reguladas, sea que la empresa que aloja el contenido así lo diga o no, pues los límites a la libertad de expresión están negociados en cada Estado y en cada región de manera acorde a sus necesidades, culturas, historia, y siempre conforme a estándares minimos de derechos humanos. La responsabilidad individual por dichas expresiones es claramente perseguible.
El problema es el discurso legal. Si el Estado no puede legítimamente limitarlo (salvo en cuestiones de tiempo, forma y lugar), tampoco puede mandar a un tercero a que lo limite, ni directa ni indirectamente. Cabe para estos casos, quizás, debatir con seriedad si los límites permisibles a la libertad de expresión que hoy tenemos son adecuados. Cabe también abordar el análisis jurídico de fenómenos nuevos, como la viralidad o la permanencia. Aquello que antes era tolerable para el derecho porque no era permanente o no tenía mayor visibilidad, hoy podría no serlo. En todo caso, ese debate es un debate más honesto, de fondo, sobre limitaciones permisibles al derecho a la libertad de expresión.
Ahora bien, hay propuestas legislativas que impulsan, además de estas limitaciones indirectas, otras medidas que podrían ser bienvenidas. Entre ellas las múltiples iniciativas que proponen mayor transparencia sobre las acciones de las propias plataformas. Existe un consenso generalizado en torno a la necesidad de mayor transparencia. No así un consenso sobre la necesidad de una transparencia obligada o supervisada por el Estado. Tampoco existe un consenso en torno a la transparencia sobre qué o para qué. Y aquí nuevamente se atraviesan problemas de fondo con problemas de forma. Dependiendo de la respuesta a estas preguntas, haremos hincapié en cierta información y no en otra. El objetivo que la transparencia persiga será determinante para darle sentido. La transparencia debe ser entendida como un medio para lograr un fin. Y el fin ha de ser legítimo, sobre todo si es el Estado quien manda dicha transparencia. De acuerdo a lo que persigamos, pediremos una información y no otra. Resaltaremos unos aspectos y no otros. Auditaremos ciertos sectores y no otros. Temo que tampoco aquí existan grandes consensos, por lo menos no en las propuestas regulatorias que hoy existen.
Quizás la propuesta más avanzada en este aspecto sea la DSA, y también allí hay problemas de amplitud en la definición y poca claridad en torno a cómo dicha transparencia se hará efectiva. Por un lado existen obligaciones generales de transparencia en torno a los términos y condiciones de servicio, mecanismos de moderación, criterios utilizados para moderar, e información agregada en torno a cantidad de contenidos afectados, usuarios afectados, decisiones tomadas, seguimiento a reportes; por otro lado se establece que la información que sustenta dichos reportes podrá ser auditada aunque aún no está claro cómo. Finalmente se establecen dos obligaciones de transparencia adicionales: una es la sustentación de las decisiones de moderación y la comunicación de las mismas a los usuarios. La otra, en caso de plataformas grandes (más de 45 millones de usuarios en la Unión Europea) es la obligación de realizar análisis de riesgo de los productos frente a potenciales daños a la democracia, la integridad de los menores y la seguridad o integridad de los usuarios (en inglés es quizás más clara la distinción de términos: “safety and security”), entre otras. Vuelvo aquí sobre el punto central de esta pieza: los riesgos identificados por la propuesta y sobre los cuales se exige transparencia y acción (análisis de riesgo y la obligación de mitigar dichos riesgos) parten de expresiones lícitas aunque potencialmente dañinas. El detalle en torno a qué significan esos riesgos, como realizar dichas auditorías, los criterios para evaluar resultados, los indicadores de éxito o fracaso de dichas iniciativas, quedaron para definir en la fase de implementación, con el mecanismo de supervisión al que me referiré en la próxima entrega 😉