La nueva ley digital de la UE se aplica desde este viernes, ¿a qué están obligados TikTok, Facebook o Instagram?

  • La Ley de Servicios Digitales asigna a 19 grandes tecnológicas el rol de 'gatekeepers' que les exige la moderación de contenidos o el acceso a sus algoritmos
  • "Está aquí para proteger la libertad de expresión y, al mismo tiempo, a nuestros ciudadanos y democracias”, ha dicho el comisario europeo Thierry Breton
Entra en vigor la Ley de Servicios Digitales de la Unión Europea
Entra en vigor la Ley de Servicios Digitales de la Unión Europea |ARCHIVO

Hasta 19 grandes plataformas o buscadores digitales, entre ellas TikTok, X (antes Twitter), Google o Facebook, deben a partir de este viernes moderar sus contenidos al empezar a aplicarse las disposiciones de la Ley de Servicios Digitales de la Unión Europea que lejos de ser una herramienta de censura busca proteger la libertad de expresión y a los ciudadanos.

La conocida como DSA “está aquí para proteger la libertad de expresión frente a decisiones arbitrarias y, al mismo tiempo, proteger a nuestros ciudadanos y democracias”, en palabras del comisario europeo de Mercado Interior, Thierry Breton.

Google, Meta y TikTok entre las siete primeras "gatekeepers" que deberán cumplir la ley digital de la UE
Google, Meta y TikTok entre las siete primeras "gatekeepers" que deberán cumplir la ley digital de la UE
Google, Meta y TikTok entre las siete primeras "gatekeepers" que deberán cumplir la ley digital de la UE

Google, Meta y TikTok entre las siete primeras "gatekeepers" que deberán cumplir la ley digital de la UE

La ley está en vigor desde el pasado 16 de noviembre pero es a partir del 25 de agosto cuando van a tener que adaptarse a ella 19 grandes compañías, las cuales cumplen el requisito de contar con al menos 45 millones de usuarios activos mensuales.

Se trata de X, TikTok, Instagram, Wikipedia, Zalando, AliExpress, Amazon, la AppStore de Apple, Bing, Booking, Facebook, Google Search, Google Play, Google Maps, Google Shopping, LinkedIn, Pinterest, Snapchat y YouTube.

La Unión Europea vigila los algoritmos de las grandes tecnológicas desde España
La Unión Europea vigila los algoritmos de las grandes tecnológicas desde España
La Unión Europea vigila los algoritmos de las grandes tecnológicas desde España

La Unión Europea vigila los algoritmos de las grandes tecnológicas desde España

Deberán, en concreto, cumplir con los nuevos requisitos de transparencia sobre el contenido en internet y protección de los menores.

"La moderación del contenido no significa censura"

“La moderación del contenido no significa censura. En Europa no habrá un Ministerio de la Verdad. Lo que habrá será transparencia. En procesos algorítmicos, bots y anuncios personalizados”, según Breton.

Esta legislación se extenderá a otras plataformas de menor tamaño en febrero y antes, en dos meses, las 19 grandes deberán publicar sus primeros informes de transparencia.

Instagram y Facebook permitirán en Europa ver el contenido en orden cronológico saltándose los algoritmos
Instagram y Facebook permitirán en Europa ver el contenido en orden cronológico saltándose los algoritmos
Instagram y Facebook permitirán en Europa ver el contenido en orden cronológico saltándose los algoritmos

Instagram y Facebook permitirán en Europa ver el contenido en orden cronológico saltándose los algoritmos

“Han tenido tiempo suficiente para adaptar sus sistemas a sus nuevas obligaciones: en materia de transparencia, privacidad, retirada de contenidos y productos ilegales, protección de los usuarios vulnerables, lucha contra la desinformación”, indicó el comisario francés.

La Comisión ofreció realizar una pruebas de estrés a las compañías para “ayudarles a entender bien lo que tenían que hacer”, y “ahora empieza la verdadera prueba”, recalcó Breton.

EN QUÉ CONSISTE

  • La ley de servicios digitales obliga a las plataformas a eliminar rápidamente el contenido ilegal que exista en sus páginas web, siempre y cuando tengan conocimiento de ellos.

  • Además, los sistemas de inteligencia artificial tendrán que especificar si el contenido que muestran son vídeos o imágenes falsas, siempre y cuando supongan un riesgo para la salud, tanto física como mental.

  • La protección de la infancia será una prioridad, al igual que la lucha contra la desinformación, incluida la propaganda prorrusa y, en particular, de cara a las elecciones europeas del año próximo.

  • Si un contenido resulta moderado, el autor recibe información detallada sobre ello y también sobre cómo apelar.

  • La plataforma tiene que poner en marcha un sistema de apelaciones y el regulador nacional, si es necesario, se pronunciará en última instancia: si da la razón al usuario, la plataforma deberá restaurar el contenido y pagar por los costes.

  • Las empresas tendrán además que explicar a los usuarios por qué les recomiendan contenido en función de su perfil: deberán ofrecer la posibilidad de que la información que vean no esté basada en sus datos personales y estarán obligadas a especificar claramente si una información tiene carácter publicitario, así como quién es su promotor.

  • También les prohibirá mostrar publicidad personalizada a los menores de edad.

  • En la misma línea, la norma prohíbe el uso de "patrones oscuros", trucos diseñados para engañar y manipular a los consumidores para que tomen decisiones probablemente contrarias a sus intereses.

  • Tanto las autoridades como investigadores externos podrán tener acceso al diseño de sus algoritmos, que determinan el contenido que los usuarios ven en internet.

  • Las compañías tendrán que hacer informes anuales para comprobar que cumplen con estos requisitos

CONTROL Y MULTAS

Si las plataformas incurren en incumplimientos de estos requisitos, la ley contempla la posibilidad de introducir multas de hasta el 6% de su facturación anual a nivel global.

Las multas pueden llegar al 6% de su facturación anual de las compañías a nivel global

La Comisión Europea ha puesto en marcha en Sevilla el nuevo Centro Europeo por la Transparencia Algorítmica (ECAT, por sus siglas en inglés) integrado en la infraestructura del Centro Conjunto de Investigación, que aportará análisis técnicos y evaluaciones de algoritmos para comprobar si las plataformas cumplen con los requisitos.

La ley también confiere a la Comisión nuevos poderes para hacer cumplir la DSA, investigar y sancionar a las plataformas cuando esté justificado.

“Ahora son entidades reguladas del mismo modo que las instituciones financieras”, apuntó Breton.

La Organización Europea de Consumidores (BEUC) recalcó en un comunicado que esta ley es “imprescindible” para que las plataformas no sigan “haciendo la vista gorda” ante contenidos ilegales y lamentó que empresas como Amazon o Zalando estén combatiendo su designación como grandes plataformas.

Desde Google, aseguran que han realizado adaptaciones y que se han “adelantado al entorno normativo actual”.

“Cumplir con la DSA no es un castigo, es una oportunidad para que estas plataformas de internet refuercen su valor de marca y reputación como un sitio de confianza”, resumió el comisario francés.