Noticias cruzando el mar #8:
Bienvenidos a la octava entrega de nuestro boletín bimestral sobre la Digital Services Act (DSA) de la Unión Europea. En esta oportunidad, tenemos novedades acerca de de la agenda de acceso a datos para investigación, la venta de artículos ilegales online, la protección de los menores, la resolución extrajudicial de controversias por decisiones de moderación de contenidos, y un par de decisiones judiciales que tratan del alcance de las obligaciones de las plataformas bajo la DSA.
Acceso a datos (i): la máquina en funcionamiento
El 2 de octubre entró en vigor la legislación delegada relativa al acceso a datos para investigadores bajo el Artículo 40 (4) de la DSA. En esta entrada y en esta contribución previa analizamos en mayor profundidad su importancia, sus limitaciones y sus principales desafíos, aunque venimos siguiendo el tema hace tiempo.
De conformidad con esta normativa, ya se encuentra en línea el Portal de Acceso a datos para Investigadores de la Comisión Europea. Además, varios servicios ya pusieron en funcionamiento sus catálogos de datos. Los catálogos describen los conjuntos de datos disponibles a los que se podrá solicitar acceso conforme al artículo 40 (4), su estructura y metadatos. Los catálogos deben incluir necesariamente datos relativos a los riesgos sistémicos en la Unión Europea que los proveedores de datos hayan identificado en sus evaluaciones de riesgos anuales de conformidad con el artículo 34 de la DSA, así como datos relativos a cualquier medida de mitigación de riesgos a la que se refiere el artículo 35. Los catálogos deben ser actualizados periódicamente, y no se exige que sean exhaustivos, motivo por el cual las solicitudes de datos de los investigadores pueden exceder los datos referidos en los catálogos. Pueden encontrar la lista de catálogos de datos disponibles aquí.
Acceso a datos (ii): dos proveedores en problemas
Sin perjuicio de la entrada en vigencia de la legislación delegada en lo relativo a la entrega de datos no públicos conforme el artículo 40 (4), las grandes plataformas y grandes buscadores (VLOPSEs, por sus siglas en inglés) ya tenían la obligación, bajo el Artículo 40 (12) de la DSA, de entregar acceso “sin dilación indebida a los datos, incluidos, cuando sea técnicamente posible, los datos en tiempo real, siempre que los datos sean de acceso público en su interfaz en línea”. Como adelantamos, la percepción entre los investigadores era que las plataformas no estaban cumpliendo con esta normativa. Al parecer, la Comisión Europea comparte esa perspectiva, por lo que ha comunicado a Meta y Tiktok las conclusiones preliminares de sus investigaciones contra ellas, en las que determinó que sendas compañías han incumplido su obligación de conceder a los investigadores un acceso adecuado a los datos públicos bajo el Artículo 40 (12).
Además, para el caso de Meta, encontró que tanto Instagram como Facebook incumplieron sus obligaciones de proveer a los usuarios (i) mecanismos simples para notificar la presencia de contenido ilegal y (ii) mecanismos para apelar decisiones de moderación de contenidos.
Ambos proveedores contarán ahora con un período no menor a 14 días para presentar sus observaciones y objeciones, que deberán ser tenidas en cuenta por la Comisión en su decisión final.
Temu y Shein, en la mira:
Un grupo de 40 parlamentarios europeos pidió a la Comisión Europea investigar a las tres plataformas de comercio electrónico chinas designadas como VLOPs bajo la DSA: Aliexpress, Temu y Shein por venta de bienes ilegales. El pedido siguió a las investigaciones de las autoridades francesas contra esas y otra plataforma de comercio electrónico por la venta de muñecas sexuales con apariencia infantil. El Ministro de Economía de Francia ya había amenazado con bloquear el acceso a Shein en ese país en caso de no retirar ese producto del mercado inmediatamente. La compañía afirma haber tomado medidas para que esos productos sean removidos inmediatamente de su plataforma.
Protección de Menores en línea: la Comisión acelera
El 19 de octubre la Comisión Europea solicitó información a 4 plataformas (Snapchat, YouTube, Apple Store y Google Play) acerca de las medidas que están llevando a cabo para proteger a los menores que usan sus servicios. Según el comunicado de prensa de la Comisión, Snapchat deberá explicar cómo impide el acceso de menores de 13 años a su plataforma y cómo previene la venta de productos ilegales como cigarrillos electrónicos y drogas. YouTube enfrenta cuestionamientos sobre sus controles de edad y su sistema de recomendaciones tras informes de contenido dañino que llega a menores. Por su parte, Apple y Google deben detallar cómo sus tiendas de aplicaciones bloquean las apps ilegales o dañinas, incluyendo las de juegos de azar y las de desnudez digital, y cómo aplican las clasificaciones por edad.
Se trata de las primeras medidas investigativas tomadas bajo las nuevas Directrices para la protección de menores bajo la DSA, dictadas conforme al Artículo 28 de la DSA, que requiere que los proveedores garanticen altos niveles de “privacidad, seguridad y protección” en sus servicios. Además, la Comisión sigue avanzando en el desarrollo de su prototipo de aplicación de verificación de edad, de código abierto y basado en la exhibición de documentos de identidad. En el pasado, organizaciones como EFF han advertido acerca de las posibles dificultades que podría sufrir la privacidad de los usuarios si se implementara este tipo de soluciones. La UE parece haber tomado la senda tecnosolucionista asumiendo que la verificación de la edad de los usuarios es una suerte de bala de plata para la protección de los menores en línea, y asumiendo también que es posible desarrollar sistemas de verificación de edad que sean a la vez efectivos y no comprometan la privacidad de los usuarios.
Informe de transparencia de Appeals Center Europe:
El Artículo 21 de la DSA, uno de los más novedosos, da a los usuarios el derecho a apelar cualquier decisión de moderación de contenidos ante un órgano de resolución extrajudicial de controversias. Estos órganos privados pueden emitir decisiones (no vinculantes para las plataformas) en los casos que los usuarios sometan a su conocimiento. Para funcionar, estos servicios deben ser certificados por el Coordinador de Servicios Digitales de su Estado de origen. Hasta ahora, han sido certificados 9 órganos.
Appeals Centre Europe, uno de estos órganos, fundado y financiado por el Oversight Board Trust, —el fideicomiso establecido por Meta para controlar el Oversight Board— publicó su primer informe de transparencia, correspondiente al período noviembre 2024-agosto 2025. Entre la información más destacada, allí encontramos que el 55% de los casos decididos fueron iniciados por usuarios cuyos posteos fueron removidos o sus cuentas suspendidas. Además, Appeals Centre revirtió el criterio adoptado por las plataformas en aproximadamente tres de cada cuatro casos. Sin embargo, buena parte (dos tercios) de esas decisiones fueron tomadas a favor de los usuarios en forma automática porque las plataformas no proveyeron la información necesaria para decidir. Por otra parte, no existen datos acerca de qué porcentaje de las decisiones de estos órganos están siendo aceptadas por las plataformas y bajo qué criterios. Finalmente, vale aclarar que la DSA no establece sobre qué bases deben fundar su decisión los órganos de resolución extrajudicial de controversias, por lo que estos órganos tienen desafíos importantes de coordinación por delante.
La DSA, a tribunales (nacionales)
El 2 de octubre de 2025, un juez de primera instancia de Ámsterdam dictó sentencia en el proceso judicial iniciado por Bits of Freedom, una organización de la sociedad civil neerlandesa, contra Meta, por violación de la DSA en relación con los sistemas de recomendación de Facebook e Instagram. BoF sostuvo que Meta dificulta que los usuarios elijan un feed no perfilado (por ejemplo, cronológico) y que, aun cuando lo seleccionan, la plataforma restablece automáticamente el sistema basado en perfiles al navegar dentro de la app o al cerrarla y reabrirla. El tribunal hizo lugar a la demanda por considerar que Meta no ofrece una forma “directa y fácilmente accesible” para que los usuarios seleccionen un sistema de recomendación no basado en perfiles, y porque no respeta la persistencia de esa elección. Ordenó a Meta que la elección de un feed no basado en perfilamiento sea fácilmente accesible en las páginas principales y secciones de “reels” de Facebook e Instagram, y que el usuario no deba volver a elegir esa opción cada vez que ingresa a la aplicación o el sitio web.
En otro caso interesante ante tribunales nacionales, la Cámara de Apelaciones de Berlín falló a favor de un usuario al sostener que las notificaciones de los usuarios vía carta documento cuentan como notificaciones válidas a fin de establecer que una plataforma tomó conocimiento efectivo de la existencia de un contenido ilegal. Rechazó la defensa de la parte demandada que sostenía que, dada la obligación de las plataformas bajo el Artículo 16 de la DSA de establecer mecanismos de notificación y acción para contenido ilegal, esos mecanismos son el único medio idóneo de comunicación de la existencia de ese contenido.
¿Qué estamos leyendo?
- Este reporte del Oversight Board con una propuesta para compatibilizar las obligaciones de mitigación de riesgos bajo la DSA con estándares internacionales de libertad de expresión, que cita los trabajos del CELE en la materia, y que fue presentado en el Taller Anual del CELE en Buenos Aires.
- Este policy brief de Interface sobre la brecha entre las protecciones que el derecho de la UE proporciona a los menores en línea y su deficiente implementación.
- Esta entrada de blog de Lorenzo Gradoni y Pietro Ortolani acerca del derecho aplicable por los órganos de resolución extrajudicial de controversias del Artículo 21 de la DSA.
- Este informe de Columbia World Projects y el Centre for Digital Governance de la Hertie School sobre las limitaciones estructurales del acceso a datos para investigación, con recomendaciones para superarlas.
- Esta propuesta del Knight-Georgetown Institute para expandir el acceso a datos públicos para investigación en plataformas digitales.
- Este artículo de Daphne Keller sobre acceso a datos de plataformas para investigadores (y no investigadores) bajo la DSA.
¡Muchas gracias por llegar hasta aquí, nos leemos pronto!
¡Hasta la próxima!