Mundo

Ley de Servicios Digitales: dentro de la ambiciosa apuesta de la UE para limpiar las redes sociales

La legislación tiene como objetivo abordar problemas tan amplios como la misoginia, la desinformación y el fraude al consumidor.

Casi dos décadas después de que el nacimiento de Facebook marcara el comienzo de la era de las redes sociales, la UE está introduciendo una legislación ambiciosa diseñada para limpiar los foros en línea más grandes del mundo.

Con la intención de abordar la misoginia, proteger a los niños, detener el fraude al consumidor, frenar la desinformación y proteger las elecciones democráticas, la Ley de Servicios Digitales (DSA) es de amplio alcance. El Reino Unido está introduciendo su propio estatuto, el proyecto de ley de seguridad en línea , pero es probable que las reglas de la UE tengan un mayor impacto porque cubren un mercado más grande y la UE es más influyente como poder regulador.

“La Ley de Servicios Digitales es una legislación innovadora que establecerá un estándar mundial para la regulación de contenido y la protección de los usuarios contra daños en línea”, dijo Peter Church, abogado de tecnología de Linklaters.

Y la DSA ya tiene empresas de tecnología en la mira. El nuevo propietario de Twitter, Elon Musk, ha sido advertido de que su plataforma no está lista para las nuevas reglas, que podrían entrar en vigor para las principales plataformas el próximo verano. Thierry Breton, el comisionado de la UE que supervisa la legislación, le dijo a Musk que tiene » un gran trabajo por delante » para garantizar que Twitter cumpla con la ley.

El viernes, a raíz de la suspensión de Twitter de un grupo de periodistas tecnológicos estadounidenses , la vicepresidenta de valores y transparencia de la comisión, Věra Jourová, intervino. Le recordó a Musk que la DSA «requiere respeto por la libertad de prensa».

Aquí hay una guía de DSA y lo que significa para las plataformas tecnológicas y sus usuarios.

¿Qué es el DSA?

La DSA se aplica dentro de la UE y regula, en la jerga legislativa típica, los servicios digitales que actúan como «intermediarios» en su función de conectar a los consumidores con contenido, bienes y servicios. Esto significa que no solo los gustos de Facebook y Google están dentro del alcance del proyecto de ley, sino también Amazon y las tiendas de aplicaciones.

Sus disposiciones incluyen: proteger a los niños de ser perfilados con fines publicitarios por los sitios de redes sociales; dar a los usuarios un medio para apelar contra la eliminación de contenido; garantizar que los productos vendidos en mercados en línea como Amazon no sean falsos; y actuar contra riesgos como la desinformación y la “ciberviolencia” hacia las mujeres.

Las infracciones conllevan la amenaza de una multa del 6% de la facturación global y, en los casos más graves, una suspensión temporal del servicio. La UE también puede exigir que los sitios tomen medidas inmediatas para abordar los problemas. Los usuarios podrán reclamar la indemnización de los perjuicios que les cause el incumplimiento de la ley.

¿Cuándo entra en vigor?

La ley divide a las empresas tecnológicas en niveles. El nivel más regulado cubre las plataformas en línea muy grandes (VLOP) y los motores de búsqueda en línea muy grandes (VLSE) que tienen más de 45 millones de usuarios activos mensuales. La UE determinará qué plataformas califican para esta categoría a principios del próximo año. Para este nivel, que podría incluir Facebook, Instagram, Google, TikTok y Amazon, existen requisitos más estrictos. Para VLOP y VLSE la ley podría entrar en vigor en verano y a principios del próximo año para el resto.

Los operadores más grandes deben realizar una evaluación de riesgos anual que describa los riesgos del contenido dañino, como la desinformación, la misoginia, los daños a los niños y la manipulación electoral. También deben implementar medidas para mitigar esos riesgos, aunque todas las principales plataformas de redes sociales y motores de búsqueda ya cuentan con equipos de moderación de contenido. No obstante, estos sistemas ahora serán examinados por la UE.

Las grandes plataformas también tendrán que publicar una auditoría independiente de su cumplimiento de la ley, así como cuántas personas utilizan en la moderación de contenido. También deben proporcionar a los reguladores detalles sobre el funcionamiento de sus algoritmos, que seleccionan lo que ve en línea al recomendar contenido. También se permitirá que investigadores independientes supervisen el cumplimiento de la ley.

Las grandes plataformas de mercado como Amazon, que no son productoras de contenido de redes sociales, aún tendrán que realizar evaluaciones de riesgo y publicar auditorías independientes.

Compartir el funcionamiento de los algoritmos es un gran paso para las empresas de tecnología. Los algoritmos de recomendación son una “caja negra” donde los criterios para priorizar el contenido pueden ser opacos. Una de las razones por las que las empresas guardan los detalles es para protegerse de piratas informáticos, spammers y actores hostiles.

¿Cómo protegerá a los niños?

Se prohibirá a las plataformas de redes sociales crear perfiles de usuarios infantiles para que las empresas los orienten con anuncios. Aquellas plataformas a las que pueden acceder menores de edad (de hecho, la mayoría de las plataformas de redes sociales) deben implementar medidas para proteger su privacidad y mantenerlos seguros. Las principales plataformas también deben realizar evaluaciones de riesgo del contenido que daña a los niños y tomar medidas para evitar que ese contenido llegue a los menores de 18 años. La legislación propuesta por la UE pretende cubrir la eliminación de material de abuso sexual infantil en línea.

¿Qué pasa con las plataformas pequeñas?

Las plataformas más pequeñas, así como las grandes, por supuesto, deben dar a los usuarios el derecho a quejarse de la eliminación de su contenido, además de la opción adicional de un proceso de apelación extrajudicial si no les gusta cómo se manejó la queja. Sin embargo, los infractores reincidentes que constantemente publican contenido ilegal deben ser suspendidos.

También deben ser transparentes sobre anuncios y algoritmos. Según la DSA, las plataformas deben brindar a los usuarios información sobre por qué se les mostró un anuncio. También debe dar detalles de los algoritmos que se utilizan para guiar la experiencia en línea de un usuario.

Con información de The Guardian

Deja un comentario

Botón volver arriba
error: Este contenido está protegido. Gracias.