En esta edición de BRIEF: Grok desatado y deepfakes sexuales, Trump centraliza la (des)regulación de la IA, vigilancia por búsquedas en Google y apuestas digitales en tierra de nadie.

Nada de esto fue un error

Actualizaciones breves

Grok, el chatbot de xAI, permitió que usuarios “desvistieran” digitalmente a mujeres y generaran imágenes sexualizadas de menores. No fue un error ni una falla inesperada. El denominado “Spicy Mode” permitió elaborar deepfakes sexuales no consentidos y contenido calificado de abuso sexual infantil (CSAM, por sus siglas en inglés) en una de las plataformas sociales más grandes del mundo. Francia lo denunció como “claramente ilegal”, bajo el Digital Services Act. India, Reino Unido y la UE abrieron investigaciones. Esta vez, la narrativa de la libertad de expresión choca con algunas obligaciones legales concretas.
▸▸ THE VERGE / BLOOMBERG / CNBC / PLATFORMER / TECHPOLICY

Relacionado: En paralelo, xAI cerró una ronda de financiamiento por US$20 Billones 1. Mientras los gobiernos investigan a Grok por facilitar porno no consentido y material ilegal, el mercado premia a la empresa con más capital. 
▸▸ X.AI

Relacionado x2: Elon Musk anunció una alianza con El Salvador para llevar Grok a escuelas públicas. No hay mucho más que agregar aquí. 
▸▸ THE GUARDIAN

⎯⎯⎯⎯

Trump finalmente firmó una orden ejecutiva para imponer un marco federal único de regulación de IA y bloquear la capacidad de los estados de dictar sus propias normas. Ya sabemos el argumento: evitar la fragmentación regulatoria permite acelerar la competitividad de EE.UU. Pero también sabemos que centralizar es una forma de desregular.
▸▸ CNBC 

⎯⎯⎯⎯

“No somos una red social”: Reddit demanda a Australia. La empresa alega que la prohibición de redes sociales para menores de 16 años vulnera la libertad de comunicación política. Su argumento alternativo es aún más llamativo: Reddit dice que no es realmente una red social, sino una colección de foros informativos para adultos. El caso anticipa una oleada global de litigios.
▸▸ REUTERS  

⎯⎯⎯⎯

El gobierno británico cerró un acuerdo por £9.000 millones con Microsoft para proveer software y servicios cloud a todo el sector público durante cinco años. Y promete replicar el modelo con otras bigtech. La apuesta llama la atención ya que parece comprometer la dependencia estructural a un solo proveedor. En simultáneo, se anuncian más mega acuerdos similares para asegurar ahorro inmediato y continuidad operativa.
▸▸ THE REGISTER

⎯⎯⎯⎯

Disney firmó un acuerdo millonario con OpenAI que permitirá crear clips de Sora con más de 200 personajes de Marvel, Pixar y Star Wars. En vez de combatir la generación no autorizada de contenidos, Disney opta por monetizar su IP y legitimar el uso de IA generativa en Hollywood. 
▸▸ THE HOLLYWOOD REPORTER

⎯⎯⎯⎯

La Corte Suprema de Pensilvania autorizó a la policía a acceder a historiales de búsqueda de Google sin orden judicial. La corte concluyó que las personas no tienen un derecho razonable a la privacidad sobre lo que escriben en el buscador. El caso se apoyó en un reverse keyword search: en vez de investigar a un sospechoso, la policía pidió a Google la lista de usuarios que habían buscado ciertas palabras asociadas a un delito sexual hasta dar con el culpable. El fallo es relevante porque redefine el umbral de la vigilancia: ya no se trata de seguir a individuos específicos, sino de rastrear patrones de búsqueda y uso de tecnología
▸▸ THE RECORD 

⎯⎯⎯⎯

Tras la captura de Nicolás Maduro, Donald Trump publicó una imagen del mandatario vendado y esposado como prueba visual del operativo. Minutos después, las redes sociales se llenaron de imágenes y videos falsos, muchos generados con IA. Una vez más, las plataformas hicieron poco para frenar la oleada desinformativa.

Relacionado: ¡Sorpresa! Starlink ofreció internet satelital gratuita a Venezuela tras bombarderos y cortes. ¿Wifi gratis?
▸▸ WIRED / THE NEW YORK TIMES / CNBC

⎯⎯⎯⎯

Los “casinos cripto” convocan a celebridades y streamers para atraer a jóvenes jugadores y normalizan las apuestas de alto riesgo como entretenimiento online.

Relacionado: Un análisis reveló que Meta sigue vendiendo anuncios de apuestas online en países donde son ilegales.

Relacionado x2: Además, surgen plataformas como Kalshi, que buscan permitir apuestas “sobre cualquier cosa”: juicios, guerras, inflación, decisiones regulatorias o si Jesús volverá este año. El problema es que, a diferencia de los casinos tradicionales, estas plataformas operan en zonas regulatorias poco claras y con escasa protección frente a la adicción, manipulación o uso de información privilegiada. 

Relacionado x3: Polymarket se negó a pagar más de US$10 millones a los usuarios que apostaron que EE.UU. “invadiría” Venezuela. La plataforma de predicción argumentó que capturar a Nicolás Maduro con fuerzas especiales no califica técnicamente como invasión.

Relacionado x4: Un análisis sobre el trasfondo ético de los mercados de predicción que permiten apostar sobre eventos del mundo real. Sus promotores insisten en que no son casinos, sino herramientas para “producir información”. En la práctica, sin embargo, operan como casinos envueltos en lenguaje cívico: incentivan apuestas sobre juicios, guerras o decisiones políticas, con riesgos éticos, sociales y democráticos que hoy nadie regula.
▸▸ NYT / RESTOFTHEWORLD / FASTCOMPANY / FTBLOOMBERG

 

Ideas para masticar

Deepfakes sexuales a un clic

De un momento a otro, X se convirtió en el principal sitio del mundo para crear y consumir deepfakes sexuales no consensuados. Sus usuarios utilizaron Grok, el asistente de inteligencia artificial integrado en la plataforma, para “desvestir” imágenes de mujeres reales, ponerlas en bikinis o directamente generar imágenes sexualizadas de menores de edad. En la mayoría de los casos, el sistema respondió a lo solicitado sin mayores problemas. En algunos, pidió disculpas. Cuando se refirió al asunto, Elon Musk reaccionó con emojis de risa.

Más que el escándalo puntual, lo que importa es lo que el caso revela desde una perspectiva regulatoria y política. Este no fue un fallo técnico ni un error de moderación, fue una decisión de diseño: la función se habilitó a sabiendas de sus potenciales efectos. 

Cuando se trata de asuntos vinculados con la intimidad, el consentimiento es un requisito esencial para la protección de las esferas de autonomía personal. Cuando ello no existe, usualmente la legislación se hace cargo, castigando fuertemente la producción, distribución y, en algunos casos, almacenamiento de este tipo de contenidos. Ninguno de estos elementos parecen haber sido ponderados al momento del diseño de esta funcionalidad de Grok.

Hasta ahora habíamos visto casos de usos indebidos, donde las plataformas toman medidas por los actos de terceros, pero en este caso el uso pareciera haber sido implementado por diseño, como una función esperable, lo que genera una serie de preguntas que por el momento no tienen respuesta ¿Por qué alguien usaría una plataforma sabiendo que su nombre quedará asociado a este tipo de pedidos? ¿Será el poder del contenido erótico visto como una nueva oportunidad de rentabilidad para X? 

Como era esperable, el problema escaló y reguladores de la Unión Europea, el Reino Unido, Francia, India, Brasil y Australia ya abrieron investigaciones o exigieron explicaciones formales a X. La Comisión Europea evalúa posibles violaciones al Digital Services Act. Otros países exploran sanciones bajo leyes de protección de datos, abuso sexual infantil y delitos informáticos. El caso Grok se convirtió, de facto, en una prueba de estrés para los marcos regulatorios existentes: ¿alcanzan las leyes actuales para enfrentar los daños de la IA generativa desplegada a escala masiva?

En Estados Unidos, el silencio es más llamativo. Ni Apple ni Google -cuyas tiendas distribuyen la app- han dicho algo. Hasta ahora, tampoco las autoridades federales. 

La respuesta regulatoria más concreta al fenómeno en Estados Unidos es la denominada TAKE IT DOWN Act, una ley aprobada en 2025 que pronto obligará a las plataformas a retirar, en un plazo de 48 horas, las imágenes sexuales no consensuadas; esto incluye  aquellas generadas por IA y denunciadas por la víctima. La iniciativa fue impulsada por el senador republicano Ted Cruz junto a la demócrata Amy Klobuchar y logró, como pocas, un apoyo transversal.

La premisa de esta propuesta de regulación es interesante porque entiende que prevenir este tipo de contenido es difícil, pero removerlo resulta imprescindible. Aunque no elimina la protección general de la Sección 230, que sigue blindando a las plataformas frente a la mayoría de los contenidos creados por usuarios, establece obligaciones explícitas que operan en paralelo: cuando una persona identificable denuncia una imagen íntima no consensuada, la plataforma ya no puede escudarse en que “no es real”, “es sintética” o “no fue creada por nosotros”. Por eso, es una norma disruptiva para la lógica de las plataformas, porque no importa si la imagen es falsa o generada por un tercero, sino que asume que el daño es real aunque la imagen no lo sea.

Las dificultades de su implementación son, como suele ocurrir con las normas de contenido, similares y un poco predecibles: el mecanismo de remoción puede ser utilizado para bajar contenido legítimo; además, la detección de imágenes generadas por IA sigue siendo técnicamente compleja, y la ley actúa después del daño, no antes. A eso se suma que las plataformas temen testear si sus modelos generan este tipo de contenido, porque hacer esas pruebas puede implicar riesgo penal para empleados o la propia empresa. Y el Estado hoy tiene menos capacidad real para fiscalizar (o prioriza otras cosas).

Independiente del futuro de estas nuevas reglas en Estados Unidos, pareciera que el espíritu desfachatado de lo que ha ocurrido con Grok es una versión a alto volumen del “move fast and break things” de otra época. Mientras otras empresas dicen estar preparándose para esta nueva legislación con el refuerzo de los canales de denuncia, sistemas de verificación y procesos internos, xAI, de Musk, se mueve explícitamente en sentido contrario.

El desafío, entonces, es político. Avanzar hacia regulaciones que terminen con la moderación voluntaria en este tipo de contenido y aclaren responsabilidades. Porque cuando una de las plataformas más visibles del mundo decide convertir el daño en un feature, la autorregulación no es más que un deseo.

 

Fe de erratas

1En la versión de Brief enviada por mail el 14 de enero del 2026 la cifra citada es US$20.000, pero el monto correcto es US$20 billones

Subscribete a brief