En esta edición de BRIEF: Irán, internet + apagón, Grok y tolerancias, OpenAI, salud, publicidad y datos sensibles. Verificación de edad, opciones, apps y menores.

Internet con carnet

Actualizaciones breves

Otra clase de apagón digital. Tras semanas de protestas y una severa represión, el régimen de Irán impuso el apagón de internet más largo y extremo registrado hasta ahora, logrando incluso dejar fuera de servicio a Starlink. El resultado fue un aislamiento informativo casi total, demostrando que incluso la infraestructura privada hasta ahora considerada “a prueba de censura” tiene límites cuando un Estado controla el territorio, espectro y la fuerza militar. El mito de internet satelital “a prueba de censura” quedó seriamente dañado y la pregunta sobre qué significa hoy hablar de soberanía digital queda entredicha.  En la práctica, el caso iraní muestra cómo ese concepto está muy lejos de aplicarse en términos de protección de derechos cuando existe un control absoluto de la producción y circulación de la información.
▸▸ AP NEWS /  RESTOFTHEWORLD /  BBC  / AMNESTY 

⎯⎯⎯⎯

OpenAI lanzó ChatGPT Health y quiere tu historia clínica. La versión “especializada” del chatbot en temas médicos permite conectar historiales clínicos y datos de apps como Apple Health. La empresa promete más seguridad y jura que estos datos no entrenarán modelos de inteligencia artificial. 

Relacionado: Además: Publicidad dentro de ChatGPT. Los avisos llegarán a la versión gratuita y al plan Go de la plataforma. Aunque la empresa dice que los anuncios no influirán en las respuestas ni accederán a las conversaciones, la segmentación se basará en el historial de uso y búsqueda dentro del propio chatbot. Que esto ocurra al mismo tiempo que anuncia el lanzamiento de su versión Health no ayuda a calmar las aprensiones.
▸▸ GIZMODO / OPENAI / CNN 

⎯⎯⎯⎯

Apple decidió que su IA no será tan “Apple”. La empresa firmó un acuerdo con Google para usar Gemini en Siri a cambio de cerca de US$1.000 millones al año, según reportes de Bloomberg. El dato clave es el precio, que sugiere que los modelos de IA empiezan a comportarse como commodities: tecnologías intercambiables, con diferencias menores, donde el valor ya no está en el modelo en sí, sino en quién controla la infraestructura, la escala y la distribución.
▸▸ CNBC /  TECH POLICY PRESS

⎯⎯⎯⎯

La carrera por la IA también es una carrera energética. Meta firmó acuerdos con empresas nucleares para asegurar más de 6 GW de energía, mientras Microsoft, que enfrentó protestas locales, prometió pagar costos completos de electricidad, no pedir subsidios y reponer más agua de la que consume. Traducción: los data centers ya no son solo un tema técnico, sino un conflicto territorial.
▸▸ TECHCRUNCH / GEEKWIRE

⎯⎯⎯⎯

Wikipedia empezó a cobrarle a la IA. En su 25 aniversario, Wikipedia firmó acuerdos con Amazon, Meta, Microsoft, Google, Perplexity y Mistral para licenciar su contenido. La razón es simple: los bots de IA saturan su infraestructura y los donantes no pueden seguir subsidiando a las big tech. 
▸▸ AP NEWS / ARSTECHNICA / THE VERGE

⎯⎯⎯⎯

Portugal bloqueó Polymarket tras detectar millones de euros apostados a resultados electorales antes de ser oficiales

Relacionado: Mientras tanto, en EE.UU., los mercados de predicción crecen y crecen
▸▸ THE BLOCK /  THE ATLANTIC

⎯⎯⎯⎯

Australia ya prohibió las redes sociales a menores de 16 y ahora mide los efectos: algunos adolescentes lo celebran, otros hacen trampa. El Reino Unido evalúa seguir el mismo camino, pero antes lanzó un estudio experimental masivo para medir los efectos reales de las redes en la salud mental y el bienestar de la población adolescente. 
▸▸ CNBC / BBC / THE GUARDIAN

⎯⎯⎯⎯

El caso Grok dejó de ser un escándalo puntual y la reacción regulatoria escaló rápidamente. Tras permitir la generación de imágenes sexualizadas de mujeres y menores, X dijo haber aplicado medidas técnicas y geobloqueos para cumplir la ley. Sin embargo, periodistas comprobaron que la función de nudify sigue disponible en la app, incluso en cuentas gratuitas. 

Relacionado: Malasia e Indonesia restringieron el acceso a Grok; el Senado de EE.UU. aprobó el Defiance Act que, de convertirse en ley, permitiría demandar a los autores de  imágenes sexuales generadas sin consentimiento y California abrió una investigación contra xAI que se suma a las de Europa y Reino Unido. Desde el Parlamento Europeo ya hay llamados a prohibir completamente las apps de AI nudification.
▸▸ BBC / THE GUARDIAN / POLITICO  / BLOOMBERGTHE POLICY PRESS

⎯⎯⎯⎯

Comenzó la era de la verificación de edad. TikTok comenzará a usar la detección algorítmica de edad en Europa para limitar el acceso de menores a ciertos contenidos, mientras que en EE.UU. una ley similar fue frenada por los tribunales en Texas, aunque el consenso político a favor de exigir controles sigue creciendo. El problema es el cómo: no existe un estándar técnico claro y las soluciones van desde IA y biometría hasta mostrar documentos de identidad, lo que abre una nueva disputa entre protección infantil, privacidad y vigilancia.
▸▸ REUTERS / POLITICO / TECHPOLICY / TECHPOLICY / TECH POLICY

 

Ideas para masticar

La nueva era de la verificación de edad

Entre el escándalo de Grok y las leyes que buscan prohibir las redes sociales a menores de edad, los gobiernos envían una señal clara: el acuerdo tácito de llenar simplemente una casilla que dice “tengo más de 18” ya no es sostenible y quizás funcionó mientras el daño parecía marginal. Con IA que genera erotismo, la circulación de nudification apps y menores de edad con acceso fácil a espacios diseñados para adultos, la tolerancia política y social parece agotarse.

¿De qué hablamos cuando hablamos de una nueva era de verificación de edad? De pasar de la buena fe a mecanismos que condicionen el acceso a productos digitales que los propios Estados consideran inapropiados para menores. Sin embargo, la pregunta es aún más interesante cuando, en realidad, no se trata solo de restringir contenidos o de prohibir plataformas, sino de reflexionar sobre cómo se impone ese límite y quién asume los costos de hacerlo.

En la práctica, las opciones existentes tienen trade-offs claros, como todo en la vida. La verificación en la plataforma, con la carga de documentos, selfies o tarjetas de identificación, es directa y eficaz pero concentra datos sensibles y multiplica los riesgos de filtraciones y abusos. La detección algorítmica, como el sistema que TikTok empieza a desplegar en Europa, evita pedir identificación a todos, pero amplía el poder discrecional de las plataformas dado que los sistemas infieren la edad a partir de comportamientos relacionados con contenido, patrones de uso o redes de interacción. Los modelos puramente declarativos, en cambio, ya demostraron ser meramente simbólicos.

Por estos motivos, las soluciones que hoy se consideran más viables son híbridas y regulatorias. Europa empuja esquemas de múltiples capas: detección algorítmica inicial, revisión humana presencial y métodos más invasivos solo en disputas. En EE.UU., el debate se ordena entre tres enfoques: verificación dentro de las apps, verificación a nivel de dispositivo -por ejemplo, validar la edad una vez al comprar o configurar un teléfono con la generación de una “señal de edad” que las apps pueden usar sin acceder a datos personales-; y sistemas interoperables como AgeKey, que permiten demostrar mayoría de edad sin revelar la identidad ni repetir el proceso en cada servicio.

La verificación de edad no es solo un problema técnico a la espera de una solución elegante. Es una decisión política sobre qué daño se tolera y quién lo paga. Más protección infantil implica menos anonimato. Menos recopilación de datos supone aceptar cierto margen de error. La delegación de decisiones a los algoritmos reduce la exposición documental, pero amplía el poder de las plataformas. 

En esta nueva era de la verificación, lo central es que la discusión pública y regulatoria tenga claro qué combinación de riesgos estamos dispuestos a aceptar y qué responsabilidades estamos dispuestos a exigir.





Subscribete a brief