Indefiniciones y buenas intenciones: las directrices de la Comisión Europea para la mitigación de riesgos sistémicos en contexto de procesos electorales
I. Introducción
En 2024, más de ochenta países alrededor del mundo celebrarán elecciones. Más de dos mil quinientos millones de personas – más de un cuarto de la población mundial- asistirán a votar este año. Se trata de un hecho sin precedentes para la democracia: el año electoral más grande de la historia. Varios estados miembros de la Unión Europea celebrarán elecciones este año y, entre el 6 y el 9 de junio, también elegirán a los diputados que los representarán en el Parlamento Europeo por los próximos cinco años.
Con las elecciones europeas a la vuelta de la esquina, la Comisión Europea publicó, el 26 de marzo de 2022, las “Directrices sobre mitigación de riesgos sistémicos para procesos electorales para los proveedores de plataformas en línea de muy gran tamaño y de motores de búsqueda en línea de muy gran tamaño”. Estas rigen únicamente para los procesos electorales de los estados de la Unión a nivel nacional y para las elecciones al Parlamento Europeo.
II. Las Directrices como medidas de mitigación de riesgos
Las Directrices fueron emitidas por la Comisión Europea en el marco del sistema de detección, análisis y mitigación de riesgos creado por la Ley de Servicios Digitales de la Unión Europea (en adelante, DSA, por sus siglas en inglés). El artículo 34 de la DSA obliga a las plataformas y a los motores de búsqueda en línea de muy gran tamaño (en adelante, VLOPs y VLOSEs) a detectar, analizar y evaluar los riesgos sistémicos que deriven del diseño, uso o funcionamiento de sus servicios. Entre los riesgos que deben evaluar se encuentra el de “cualquier efecto negativo real o previsible sobre el discurso cívico y los procesos electorales”. Por su parte, el artículo 35 obliga a estos proveedores a aplicar medidas de mitigación de esos riesgos que sean “razonables, proporcionadas y efectivas, adaptadas a los riesgos sistémicos específicos detectados de conformidad con el artículo 34”, y faculta a la Comisión a publicar directrices para la mitigación de riesgos, que contengan buenas prácticas y recomendaciones de posibles medidas. Aunque su adopción no sea obligatoria, la Comisión Europea advirtió a los proveedores que, en caso de no seguirlas, deberán “probar a la Comisión que las medidas alternativas tomadas son igualmente efectivas en la mitigación de riesgos”. Vale aclarar que, por aplicación de las reglas generales de los Artículos 34 y 35 de la DSA, estas directrices no son exhaustivas, es decir que otras medidas no especificadas en el documento podrían ser aplicadas, en razón de los riesgos detectados por cada plataforma en los productos y servicios que ofrece.
El Artículo 35 (3) de la DSA dispone que, previamente a publicar directrices sobre mitigación de riesgos sistémicos, la Comisión Europea realice consultas públicas. La consulta, a la que el CELE contribuyó con comentarios, tuvo lugar entre el 8 de febrero y el 7 de marzo de 2024. La Comisión publicó un borrador de las Directrices junto con un cuestionario acerca de ellas que podía ser contestado, total o parcialmente. El resumen oficial de las contribuciones recibidas puede ser descargado desde este enlace.
III. Sobre el contenido de las directrices
Las Directrices, publicadas el 26 de marzo de 2024, refieren a las plataformas como “foros importantes para moldear el debate público y la conducta de los votantes». Advierten acerca de la existencia de una serie de fenómenos relacionados con ellas que generan un “riesgo aumentado” para la integridad de los procesos electorales. Entre esos riesgos ubican a las amenazas relacionadas con la manipulación e interferencia de información por parte de autoridades extranjeras (FIMI, por sus siglas en inglés), la proliferación de discurso de odio, de desinformación, de contenido extremista difundido con la intención de radicalizar a las personas, y de contenido generado utilizando inteligencia artificial generativa. Frente a este panorama, proponen una serie de recomendaciones para que los proveedores de VLOPs/VLOSEs adopten antes, durante y después de las elecciones.
En términos generales, la Comisión recomienda a las plataformas tener particular consideración del impacto de las medidas de mitigación de riesgos en los derechos fundamentales, particularmente en la libertad de expresión, incluyendo la expresión política, la parodia y la sátira.
Las recomendaciones más concretas incluyen medidas como la difusión de información oficial acerca de las elecciones; iniciativas de alfabetización mediática; medidas para contextualizar las publicaciones; un mayor grado de transparencia acerca de los sistemas de recomendación de las plataformas y mayor control de los usuarios sobre sus feeds; mayor transparencia e información acerca de la propaganda electoral; cooperación con autoridades nacionales (limitada a compartir información oficial y colaborar con información para el análisis y mitigación de riesgos), expertos independientes y organizaciones de la sociedad civil; colaboración con medios de comunicación independientes, verificadores de datos, la academia y otras partes interesadas relevantes en iniciativas para mejorar la identificación de información confiable, e implementación de mecanismos internos de respuesta a incidentes que involucren a la alta dirección de las plataformas. Una recomendación importante es la de contar con recursos de moderación de contenido en idioma local y con conocimiento de las especificidades nacionales y/o regionales, y designar equipos específicos con antelación a cada elección, dotados de recursos en forma proporcional a los riesgos definidos para la elección en cuestión, con la expertise relevante en moderación de contenido, fact-checking, ciberseguridad, desinformación y FIMI, derechos fundamentales, etc.
En cuanto a contenidos específicos, se les recomienda tomar medidas para abordar el contenido ilegal, tal como el incitamiento a la violencia y el odio, en la medida en que ese tipo de contenido puede afectar la libertad de expresión al inhibir o silenciar voces en el debate democrático. Las Directrices también recomiendan establecer medidas para disminuir la prominencia de la desinformación, tales como desmonetizar aquellos contenidos que hayan sido declarados “falsos” tras un proceso de verificación o provenientes de cuentas que ya han publicado información falsa, evitar que los sistemas de anuncios generen incentivos para la diseminación de desinformación o contenido FIMI o discursos de odio, extremistas o radicalizados, establecer procedimientos para detectar y detener la manipulación del servicio a través de la creación de cuentas “no auténticas” o redes de bots, o del uso engañoso de un servicio y poner en funcionamiento medidas de mitigación de riesgos en relación con la creación y diseminación de contenido generado con IA generativa.
IV. Nuestro análisis
Coincidimos con la Comisión Europea en el rol y relevancia que adscribe a las plataformas de internet como uno de los principales foros de circulación de ideas políticas y disputa de sentido. En Europa, cada vez más personas las utilizan como una de sus principales fuentes de información. Por eso valoramos especialmente la referencia que las Directrices hacen a la importancia de la protección de la libertad de expresión y del pluralismo en la implementación de estas medidas y la inclusión de la recomendación de estudios de impacto en derechos humanos, tal como fue sugerido por el CELE durante el proceso de consulta.
La Comisión Europea, sin embargo, parte de dos supuestos que no están acabadamente probados. Por un lado, entienden que la desinformación es causa eficiente de la polarización, a pesar de que los estudios académicos no son concluyentes al respecto. Existen estudios que sugieren que la desinformación es una consecuencia de la polarización, y no su causa. Por otro lado, la adopción de las medidas recomendadas llevaría, en algunos casos, a controles especialmente estrictos sobre el discurso en períodos electorales. La preocupante suposición que subyace aquí es que en contextos electorales deberían regir mayores controles sobre el discurso. Por el contrario, las comunidades políticas vigorosas necesitan un debate público amplio, robusto y desinhibido que genere las condiciones para que todas las opiniones puedan ser escuchadas, y ello sólo se logra con una mayor circulación de ideas. En todo caso, en épocas electorales, el discurso político debe ser especialmente protegido (cf. OHCHR, “Monitoring Human Rights in the Context of Elections”, p. 9). Incluso habría sido interesante observar alguna disposición que tienda a requerir un mayor grado de certeza que el habitual para moderar contenido acerca de cuestiones de interés público relativas al proceso electoral, figuras públicas o candidatos a cargos electivos, durante el término de las campañas.
En rigor, estos dos errores no son exclusivos de estas Directrices sino más bien heredados del enfoque de “riesgos sistémicos” de la DSA. Según sus artículos 34 y 35, cuanto mayores son los riesgos, más intensas deben ser las medidas de mitigación implementadas. Esta lectura constituiría un desvío explícito de lo dispuesto en el Artículo 10 del Convenio Europeo de Derechos Humanos y en el Artículo 19 del Pacto Internacional de los Derechos Civiles y Políticos, que imponen que las limitaciones estatales a la libertad de expresión deben estar dispuestas por ley y deben ser necesarias en una sociedad democrática. Bajo la DSA, se altera la naturaleza del examen de proporcionalidad que deben superar las limitaciones a la libertad de expresión bajo estándares internacionales de derechos humanos en dos sentidos: por un lado, el escrutinio se “terceriza” en las plataformas, que deben encontrar los riesgos, analizarlos y mitigarlos; por otro lado, la DSA pierde de vista la exigencia del derecho internacional de los derechos humanos de la utilización de los medios (“medidas de mitigación”) menos restrictivos posibles de los derechos humanos para cumplir con los objetivos gubernamentales (“reducción de riesgos”). Al contrario, la DSA manda a adaptar las medidas a la magnitud de los riesgos detectados.
Otra falencia que las Directrices tienen en común con la DSA es la vaguedad en algunos de sus términos clave. La carencia de una definición legal de “riesgo sistémico”, concepto nodal en el entramado de la ley, genera dificultades en el resto del sistema y deja a las plataformas y al resto de los actores (auditores, sociedad civil, academia) sin parámetros concretos para trabajar ni un lenguaje común. Además otorga un enorme margen de discrecionalidad a la Comisión en su aplicación. Incluso varios de los riesgos específicos identificados son extremadamente vagos, como los efectos negativos sobre el discurso cívico y los procesos electorales.
Las directrices apuntaban a echar luz sobre conceptos clave y fijar estándares concretos para el periodo electoral inminente. Sin embargo, no definen lo que debe entenderse por términos clave como “desinformación”, “discurso extremista” o “integridad del proceso electoral”. La utilización de conceptos abiertos como estos carece de la especificidad necesaria para guiar el accionar de las plataformas.
Entre otras cosas, urge distinguir entre contenido legal e ilegal, en tanto los remedios que la Comisión puede recomendar respecto de cada uno son distintos. A falta de una distinción clara, algunas de las medidas sugeridas en la directrices generan incentivos equivocados para las empresas. Por ejemplo, la sugerencia de desmonetizar el contenido que haya sido declarado “falso” por fact-checkers independientes o que provenga de cuentas que publican falsedades con frecuencia puede constituirse en una forma indirecta de censura estatal. Por su parte, la falta de adopción de una definición sobre “FIMI” y la gran vaguedad que tienen las que hasta aquí han sido adoptadas (a pesar de los esfuerzos que se han hecho para definirlo) es problemática e incentiva a silenciar voces críticas provenientes del extranjero.
Finalmente, las Directrices contienen una sección dedicada al intercambio de información entre plataformas y de éstas con los estados. Esta medida fue duramente criticada por sociedad civil durante el periodo de consulta y terminó siendo revisada para incluir recomendaciones de transparencia en las comunicaciones entre estados y plataformas y recomendando la intervención de los Coordinadores de Servicios Digitales en las comunicaciones. A pesar de ello, la sugerencia de que los estados puedan informar a las plataformas acerca de “posibles riesgos para el proceso electoral, que pueden informar las medidas de mitigación”, podría dar lugar a formas sofisticadas de presión (“jawboning”).
V. Mirando al futuro
En líneas generales, muchos de los remedios propuestos por la Comisión Europea son correctos y proporcionales, como aquellos que bregan por una mayor circulación de información, alfabetización digital, puesta en funcionamiento de equipos específicos y transparencia.
Como se resaltó, hay otros aspectos que merecen ser analizados con mayor detenimiento y reemplazados. La proximidad de las elecciones del Parlamento Europeo puede haber conspirado contra una redacción más acabada de estas guías.
Sin embargo, la publicación de las Directrices sólo marca el inicio del proceso. Éstas recomiendan que las VLOPS confeccionen reportes poselectorales que analicen la efectividad de las medidas de mitigación de riesgo llevadas adelante, -incluyendo el cumplimiento con métricas y otros objetivos internos-, lecciones aprendidas y áreas de mejora. La Comisión recomienda, además, que esos reportes tengan una versión pública.
Afortunadamente, las Directrices prevén su revisión por parte de la Comisión Europea, que en esa empresa tendrá en cuenta “la experiencia práctica ganada y la velocidad de los desarrollos tecnológicos, sociales y regulatorios en el área”. Será esencial, entonces, prestar atención a la forma en la que las plataformas actúen durante el período electoral, a las investigaciones y procesos que la Comisión inicie con motivo de la aplicación de estas reglas, y a la información que surja de las versiones públicas de los reportes de las propias compañías, para lograr incidir en forma positiva en la modificación de las Directrices en la dirección correcta.