Jurado responsabilizó a Meta por impacto en seguridad y salud de menores
Un jurado del estado de Nuevo México concluyó que la compañía Meta incurrió en prácticas que afectaron la salud mental y la seguridad de menores de edad en sus plataformas digitales, tras un proceso judicial que se extendió por cerca de siete semanas. La decisión respalda los argumentos presentados por fiscales estatales, quienes señalaron que …
Un jurado del estado de Nuevo México concluyó que la compañía Meta incurrió en prácticas que afectaron la salud mental y la seguridad de menores de edad en sus plataformas digitales, tras un proceso judicial que se extendió por cerca de siete semanas.
La decisión respalda los argumentos presentados por fiscales estatales, quienes señalaron que la empresa, propietaria de Instagram, Facebook y WhatsApp, priorizó aspectos comerciales sobre la protección de usuarios jóvenes. El jurado determinó que estas conductas constituyeron múltiples infracciones a la legislación estatal sobre prácticas comerciales.
Según el veredicto, se identificaron miles de infracciones, cada una con una sanción máxima de 5.000 dólares, lo que derivó en una multa total de 375 millones de dólares. Durante el juicio, los integrantes del jurado evaluaron el número de adolescentes afectados para definir la magnitud de la sanción.
El proceso judicial incluyó la revisión de documentos internos de la compañía, reportes sobre seguridad en sus plataformas y testimonios de diferentes actores, entre ellos ejecutivos, ingenieros, exintegrantes de la empresa y expertos en salud mental. También se analizaron elementos relacionados con la circulación de contenidos perjudiciales y el funcionamiento de los sistemas de recomendación.
Entre los aspectos examinados se encuentra el cumplimiento de las restricciones de edad en las plataformas, así como la forma en que se gestionan contenidos vinculados a riesgos para menores. El jurado también consideró declaraciones públicas de directivos como Mark Zuckerberg, Adam Mosseri y Antigone Davis, en relación con las condiciones de uso y las medidas de protección implementadas.
El caso se originó a partir de una investigación adelantada por autoridades estatales, en la que se utilizaron perfiles ficticios de menores para identificar interacciones y evaluar la respuesta de las plataformas frente a contenidos sensibles. La demanda fue presentada en 2023 por el fiscal general Raúl Torrez.
En esta primera fase, el fallo establece la responsabilidad de la compañía en los hechos analizados. Sin embargo, el proceso continuará en una segunda etapa, en la que un juez determinará si las prácticas identificadas constituyen un daño público y si la empresa deberá financiar programas orientados a mitigar los efectos señalados durante el juicio. Esta fase está prevista para el mes de mayo.
Por su parte, Meta expresó su desacuerdo con la decisión y anunció que apelará el fallo. La compañía indicó que mantiene acciones orientadas a la protección de los usuarios y que continúa implementando herramientas para la detección y eliminación de contenidos perjudiciales, aunque reconoció limitaciones en la capacidad de bloquear la totalidad de este material.

Noticias relacionadas
Irán respondió amenazas de Trump de devolverlos a la Edad de Piedra y prometió acciones destructivas
El Ejército iraní respondió con firmeza a las amenazas de Donald Trump, prometiendo “acciones más…
(ANÁLISIS) Energía, poder y estrategia. El rediseño del orden global bajo liderazgo estadounidense
El reacomodo del mapa energético mundial en los últimos años ha abierto un debate sobre el…
Informe alerta sobre red de influenciadores entrenados por Rusia para difundir desinformación en América Latina incluida Colombia
Una investigación internacional señala que más de 1.000 creadores de contenido en la región,…