En un hecho inédito, Mark Zuckerberg compareció ante un jurado civil en la Corte Superior de Los Ángeles en un juicio que no acusa a las redes sociales por el contenido que alojan, sino por su presunto diseño como “productos defectuosos” dirigidos a explotar la vulnerabilidad psicológica de niñas y niños.
El caso podría redefinir la responsabilidad legal de las grandes tecnológicas en Estados Unidos.
El caso testigo: Kaley contra Meta y Google
El juicio se centra en K.G.M., identificada en la corte como “Kaley”, una joven de 20 años que demanda a Meta Platforms (Instagram) y a Google (YouTube).
Sus abogados sostienen que la exposición temprana —entre los 6 y 9 años— y continua a los mecanismos de estas plataformas le provocó daños severos: depresión clínica, ansiedad paralizante e ideación suicida.
Te puede interesar: ONU advierte que crímenes de Epstein podrían ser lesa humanidad https://www.deluna.com.mx/internacional/onu-advierte-que-crimenes-de-epstein-podrian-ser-lesa-humanidad/
Kaley representa el “caso testigo” que podría influir en el destino de más de 1,600 demandas similares acumuladas en tribunales estadounidenses.
La acusación: “casinos digitales” y diseño adictivo
La acusación, liderada por el abogado Mark Lanier, argumenta que las plataformas operan como “casinos digitales” bajo un supuesto acrónimo interno: ABC (Addicting Brains of Children).
Según la demanda, las tecnológicas implementaron características específicas como:
- Scroll infinito
- Alertas intermitentes
- Filtros cosméticos y de “cirugía plástica”
El objetivo, señalan, era maximizar la retención de usuarios menores de edad, aun cuando existían advertencias internas sobre el impacto en la salud mental.
Durante el juicio se presentaron correos internos de 2019, debatidos previamente con Adam Mosseri, en los que directivos advertían que ciertos filtros fomentaban la dismorfia corporal en niñas.
Documentos expuestos en corte indican que Zuckerberg habría ordenado mantener activos estos filtros para priorizar la permanencia de usuarios y la competitividad frente a rivales como TikTok.
La defensa de Meta
En su testimonio, Zuckerberg reconoció que el sistema “no es perfecto”, pero negó que Meta diseñara intencionalmente sus plataformas para explotar o dañar a menores.
También admitió que la empresa tardó en identificar usuarios menores de 13 años, aunque sostuvo que la compañía ha reforzado controles y medidas de seguridad con el tiempo.
El punto clave: la Sección 230
El fallo podría tener implicaciones históricas. La Section 230 of the Communications Decency Act ha protegido durante décadas a las plataformas digitales frente a demandas por el contenido publicado por sus usuarios.
Sin embargo, los demandantes han replanteado la estrategia legal: no se trata del contenido, sino del diseño del producto.
La comparación es directa: así como una automotriz puede ser demandada por frenos defectuosos o una tabacalera por ocultar riesgos de cáncer, las tecnológicas podrían ser consideradas responsables si su diseño causa daños a la salud pública.
Si el jurado de Los Ángeles falla a favor de Kaley, se abriría la puerta a una nueva ola de litigios y a un replanteamiento del marco jurídico que rige a las redes sociales en Estados Unidos.

¡Síguenos en redes!
ONU advierte que crímenes de Epstein podrían ser lesa humanidad#Internacional https://t.co/ZzZKwLWFhj
— De Luna Noticias (@DeLunaNoticias1) February 17, 2026