Ley europea

Bruselas estrecha el cerco sobre los grandes buscadores y plataformas digitales

Las 17 grandes plataformas y 2 motores de búsqueda identificados por la Comisión Europea tendrán cuatro meses, hasta finales de agosto, para cumplir las obligaciones de la Ley de Servicios Digitales

El propietario de Twitter, Elon Musk, y el comisario europeo de Mercado Interior, Thierry Breton.

El propietario de Twitter, Elon Musk, y el comisario europeo de Mercado Interior, Thierry Breton.

4
Se lee en minutos
Silvia Martínez

La Comisión Europea ha publicado este martes la lista de buscadores y plataformas digitales que serán objeto de una supervisión y un control reforzado. En total 17 plataformas en línea y 2 motores de búsqueda que suman al menos 45 millones de usuarios activos mensuales y que tendrán cuatro meses, hasta el 25 de agosto, para cumplir con las nuevas obligaciones previstas en la Ley de Servicios Digitales (DSA): desde dar más protección de los usuarios y los menores hasta identificar y reducir una amplia gama de riesgos sistémicos que abarcan los contenidos ilegales y la desinformación.

Los dos motores de búsqueda identificados por Bruselas son Bing y Google mientras que las diecisiete plataformas afectadas por los controles adicionales, designadas en función de los datos de usuarios que debían publicar para el 17 de febrero, serán Alibaba AliExpress, Amazon Marketplace, Apple AppStore, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia ,YouTube y Zalando. “Empieza la cuenta atrás para que 19 grandes plataformas en línea y motores de búsqueda cumplan plenamente las obligaciones especiales que les impone la Ley de Servicios Digitales”, ha celebrado el comisario de industria, Thierry Breton.

“La Ley de Servicios Digitales aportará transparencia y responsabilidad significativa a las plataformas y motores de búsqueda y dará a los consumidores más control sobre su vida en línea. Las designaciones que se han hecho hoy son un gran paso adelante para conseguirlo”, ha añadido la vicepresidenta Margrethe Vestager sobre las empresas seleccionadas. Las plataformas tendrán que proteger a los usuarios en línea, incluidos los menores, evaluando y mitigando sus riesgos sistémicos y proporcionando herramientas sólidas de moderación de contenidos. 

Moderación de contenidos

Esto, sostiene el Ejecutivo comunitario, significa capacitar a los usuarios de forma que puedan obtener información clara de las plataformas sobre por qué se les recomienda determinada información y tengan derecho a excluirse de los sistemas de recomendación basados en perfiles. También tendrán que poder denunciar contenidos ilegales con facilidad y las plataformas estarán obligadas a procesar esas denuncias con diligencia además de garantizar que no muestran anuncios basados en datos sensibles del usuario (como origen étnico, opiniones políticas u orientación sexual) y etiquetar todos los anuncios e informar a los usuarios sobre quién los promueve. Toda la información tendrá que llegar al usuario en un lenguaje “sencillo” y “comprensible”, en las lenguas de los Estados miembros en los que operan.

Las plataformas identificadas también estarán obligadas a rediseñar sus sistemas para garantizar un alto nivel de privacidad, seguridad y protección de los menores. Por ejemplo, no podrán realizar publicidad dirigida a menores basada en perfiles y tendrán que facilitar a la Comisión Europea en un plazo de entre cuatro y doce meses evaluaciones de riesgos especiales, incluidos los efectos negativos sobre la salud mental de los menores. Las lista de obligaciones también incluye el rediseño de servicios, incluidos interfaces, sistemas de recomendación, términos y condiciones, para mitigar los riesgos.

Eliminar contenidos

En cuanto a la lucha contra la desinformación, la ley obligará a tomar medidas a hacer frente a los riesgos vinculados a la difusión de contenidos ilegales en línea y los efectos negativos sobre la libertad de expresión y de información. Los términos y las condiciones deberán ser claros, cumplir con ellos de forma diligente y no arbitraria y garantizar un mecanismo que permita a los usuarios señalar los contenidos ilícitos y a las plataformas eliminarnos con celeridad. También tendrán que hacer análisis de riesgo y poner en marcha medidas frente a la difusión de desinformación y el uso no auténtico de sus servicios.

Noticias relacionadas

La nueva ley obligará a las plataformas a someterse a auditorías externas e independientes, a dar acceso a los investigadores a los datos disponibles públicamente, a publicar informes de transparencia sobre las decisiones de moderación de contenidos y la gestión de riesgos y a informar antes de finales de agosto a la Comisión de su primera evaluación anual de riesgos. Aunque el Ejecutivo comunitario es la autoridad competente para supervisar las plataformas y motores de búsqueda designados, trabajará en estrecha cooperación con los Coordinadores de Servicios Digitales nacionales y que los gobiernos deberán establecer para el 17 de febrero de 2024.

Para esa fecha, el resto de las plataformas tendrán también que cumplir sus obligaciones y proporcionar a sus usuarios la protección y las salvaguardias establecidas en la ley que también obligará a las plataformas a ser más transparentes con los algoritmos. Por ejemplo, los investigadores acreditados tendrán la posibilidad de acceder a los datos de las empresas para llevar a cabo investigaciones sobre riesgos sistémicos en la UE. Esto significa, según Bruselas, que podrían, por ejemplo, analizar las decisiones de las plataformas sobre lo que los usuarios ven y con lo que se relacionan en línea, teniendo acceso a datos no divulgados anteriormente.