Culpables
Actualizaciones breves
Meta y Google fueron declaradas negligentes por diseñar plataformas adictivas en un juicio en Los Ángeles. El argumento no atacó el contenido que se publica en las plataformas, sino cómo las plataformas están construidas. “¿Cómo logras que un niño nunca suelte el teléfono? Eso se llama ingeniería de la adicción”, dijo el abogado de la demandante. Meta respondió que la salud mental de los adolescentes “es muy compleja para atribuirla a una sola app”. Los montos —US$4,2 millones para Meta y US$1,8 millones para Google— son irrisorios. Lo que importa no es el número, sino el precedente. Probablemente las plataformas se verán obligadas a cambiar su modelo de negocio.
▸▸ THE GUARDIAN / REUTERS / NPR / NYT / WASHINGTON POST / PLATFORMER
Relacionado: Meta también perdió en Nuevo México: deberá pagar US$ 375 millones por exponer a menores a abusadores sexuales. La demanda siguió a una investigación encubierta en que las plataformas de Meta inundaron el perfil falso de una niña de 13 años con imágenes y solicitudes de abusadores. La teoría legal es la misma: el daño no proviene del contenido, sino del diseño.
▸▸ CNBC
Relacionado x2: Dos fallos en dos días. Y miles más en camino. Si la jurisprudencia se consolida, el modelo de negocio basado en maximizar el tiempo en pantalla —y vender publicidad sobre esa atención— podría enfrentar una amenaza legal sistémica. No solo en EE.UU.: analistas advierten que estos fallos pueden tener efectos expansivos en mercados de todo el mundo.
▸▸ TECH POLICY PRESS / TECH POLICY PRESS / NYT / REST OF WORLD
⎯⎯⎯⎯
Instagram eliminó silenciosamente el cifrado de extremo a extremo en sus mensajes privados. Probablemente sea una respuesta a la presión regulatoria por proteger la seguridad de menores. El problema es la lógica: si deciden “eliminar la encriptación para proteger a los niños”, ¿qué pasará cuando la misma lógica llegue a WhatsApp, con sus 2.000 millones de usuarios? Investigadores advierten que el retroceso podría normalizar la vigilancia privada como herramienta de protección infantil.
▸▸ INSTAGRAM / WIRED
⎯⎯⎯⎯
El Informe Mundial de Felicidad 2026, respaldado por la ONU, concluyó que el consumo de redes sociales algorítmicas daña la salud mental de los adolescentes, con efectos más pronunciados en niñas.
▸▸ BLOOMBERG
⎯⎯⎯⎯
Trump (finalmente) presentó un marco legislativo federal de IA que busca establecer un estándar nacional único y bloquear las leyes estatales. La propuesta se llama, sin ironía aparente, el “TRUMP AMERICA AI Act”.
▸▸ TECH POLICY PRESS / POLITICO / TECH POLICY PRESS / WASHINGTON POST
Relacionado: Vietnam aprobó una ley de IA que establece que las decisiones importantes para la sociedad deben ser tomadas por humanos, no por algoritmos. El principio de la ley es que la IA es una herramienta de soporte. Las empresas de IA que deseen operar en Vietnam están obligadas a autoclasificar sus productos para determinar si son de alto, medio o bajo riesgo. También, deben etiquetar todo contenido generado por IA y los deepfakes no consensuados están explícitamente prohibidos. La ley también prohíbe usar IA para “amenazar la seguridad nacional o el orden público”, una categoría bastante amplia. El modelo se inspira parcialmente en el AI Act europeo, aunque con un enfoque de responsabilidad por culpa en vez de por daño.
▸▸ TECH POLICY PRESS
⎯⎯⎯⎯
Brasil llega a su primera elección presidencial con IA y sin ley que la regule. El Tribunal Electoral Superior actúa como regulador de facto: prohíbe que los chatbots recomienden candidatos y exige etiquetado en publicidad política con IA. Sin embargo, un tribunal diseñado para administrar elecciones no tiene las herramientas para gobernar la IA. El país tiene 140 millones de mensajes diarios en ChatGPT y deepfakes electorales documentados en las elecciones municipales de 2024.
▸▸ TECH POLICY PRESS
Relacionado: Brasil estrenó su ley de protección infantil digital y nadie sabe bien cómo se implementará. La norma obliga a las plataformas a verificar edades, eliminar diseños adictivos y retirar contenido ilegal sin orden judicial. Según la nueva ley, las plataformas podrían enfrentarse a multas de hasta US$10 millones. El problema: la agencia reguladora recién comenzó a contratar personal y el plazo de implementación es de seis meses —“muy poco tiempo”, reconocieron los propios funcionarios. Mientras tanto, Meta intentó debilitar la ley desde adentro: al menos dos enmiendas para eliminar sanciones fueron redactadas por un lobista de la empresa sin que los parlamentarios que las presentaron lo revelaran.
▸▸ TECH POLICY PRESS
⎯⎯⎯⎯
Ecuador se suma a la tendencia global y propone restricciones a redes sociales para menores, pero con un argumento inédito: seguridad nacional. La mayoría de los países justifican estas medidas por salud mental o privacidad.
▸▸ TECH POLICY PRESS
⎯⎯⎯⎯
Argentina bloqueó el acceso a Polymarket a nivel nacional. El país se suma a una lista creciente de estados que restringen plataformas de apuestas sobre eventos del mundo real.
▸▸ COINDESK
⎯⎯⎯⎯
La policía de Hong Kong ahora puede exigir contraseñas de dispositivos bajo una nueva ley de seguridad nacional. Negarse puede implicar un año de cárcel.
▸▸ THE GUARDIAN
⎯⎯⎯⎯
Wikipedia prohibió todo el contenido generado por IA. La razón es operativa antes que filosófica: los problemas relacionados con LLMs (grandes modelos de lenguaje o Large Language Models) habían desbordado a los editores voluntarios. Cuando el volumen supera la capacidad humana de verificación, la solución más honesta puede ser simplemente el bloqueo.
▸▸ 404 MEDIA
Ideas para masticar
Las redes sociales son adictivas
“¿Cómo va a ser posible que un niño no pueda soltar el teléfono?”, esa fue la pregunta que los abogados de la demandante pusieron en el centro del primer juicio por adicción a redes sociales en Estados Unidos. Y el jurado les dio la razón: Meta y Google construyeron productos que dañaron a una menor. No porque publicaran contenido ilegal, sino porque así los diseñaron.
Lo primero que hay que decir es que definitivamente es un fallo histórico. Por primera vez, dos empresas tecnológicas fueron declaradas negligentes no por lo que sus usuarios publicaron, sino por cómo construyeron el producto. Eso tiene consecuencias reales: hay miles de demandas similares y el modelo de negocio entero quedó expuesto.
Lo segundo es que las grandes tecnológicas van a apelar. Y tienen argumentos. Uno de ellos es que la comparación con la industria tabacalera tiene una dificultad y es que con el tabaco había una sustancia química identificable y evidencia. Con las redes sociales, la “adicción” funciona más como metáfora que como categoría clínica precisa. Y eso importa jurídicamente: ¿cómo sabe una plataforma que cruzó la línea? ¿Cuál es el test? ¿El botón de “siguiente episodio” de Netflix es demandable? ¿El swipe de Tinder? ¿Los likes? Si el criterio es “diseñado para que uses más el producto”, prácticamente toda la economía de la atención queda expuesta.
Lo tercero, y más interesante, es qué significa esto para internet. El núcleo jurídico de estos fallos es una grieta en la Sección 230, la fórmula legal que mantuvo a internet funcionando del modo que conocemos durante treinta años. La Sección 230 dice que las plataformas no son responsables por el contenido que publican sus usuarios. Lo que los demandantes argumentaron es que el scroll infinito, el autoplay y los sistemas de recomendación algorítmica no son contenido de terceros: son decisiones de ingeniería. Y si esa distinción sobrevive a las apelaciones, el efecto es enorme, pues para hacer responsable a una plataforma ya no hay que probar que publicó algo ilegal: basta con probar que el daño vino del diseño.
¿Es sostenible el argumento de la libertad de expresión para proteger el diseño adictivo? Hay quienes dicen que el scroll infinito no es en sí problemático: si el contenido es malo, no genera ganas de seguir scrolleando. Puede ser. Pero el punto es otro. Hoy, la fricción es inexistente. No hay nada que te haga parar. Si por defecto la plataforma tuviera características diseñadas para evitar el engagement obsesivo, habría menos daño. La distinción entre contenido y diseño no es ilusoria: se pueden hacer cosas a nivel de diseño —desactivar notificaciones, limitar el autoplay, paginar el feed— sin alterar el contenido ni afectar la libertad de expresión. Esa diferencia ya es un avance.
Internet en 2026 no es lo mismo que hace treinta años. Las plataformas ya no son simples lugares donde ocurren interacciones digitales. Construyen sistemas sofisticados que estudian tu comportamiento para descubrir qué te mantiene más tiempo en la app, contratan científicos cognitivos que corren experimentos para vencer tu instinto de hacer otra cosa, y lo hacen a través de la optimización en el diseño de manera implacable.
Habrá más juicios. Habrá apelaciones. Falta mucho. Pero lo que sí es claro es que, por primera vez, las grandes plataformas ven amenazado su modelo real de negocio. Y también pareciera ser que, por primera vez, existe un reconocimiento generalizado de que el problema no es el contenido en sí, y que las plataformas ya no se pueden resguardar en ese argumento, sino que realmente están diseñadas para mantenernos adictos. Y que se puede hacer algo al respecto. El eslogan “las redes son adictivas” es, al menos, un comienzo.