En esta edición de BRIEF: Anthropic vs. el Pentágono, Zuckerberg en juicio de adicción, filtros de belleza y la IA en la guerra, sin nadie legislando.

Vacío legal

Actualizaciones breves

El Pentágono exigió acceso total a Claude sin restricciones éticas. Anthropic se negó. ¿Puede una empresa de IA venderle su tecnología al ejército más poderoso del mundo y seguir poniendo límites a su uso? Anthropic dijo que sí: nada de armas autónomas, nada de vigilancia masiva de ciudadanos norteamericanos. El Secretario de Defensa estadounidense (ahora Secretario de Guerra) les dio un ultimátum: ceder o ser designados "riesgo en la cadena de suministro" —una medida extremadamente gravosa pensada para empresas extranjeras peligrosas en contexto de guerra. Pero Anthropic no cedió. Y mientras ocurría todo eso, el ejército ya usaba Claude para procesar inteligencia e identificar objetivos en la guerra contra Irán.
▸▸ AXIOS / THE VERGE / BLOOMBERG / WP / THE ATLANTIC / NYT

Relacionado: Para sorpresa de nadie, OpenAI firmó lo que Anthropic rechazó. Primero, Sam Altman anunció que OpenAI compartía los lineamientos de Anthropic. Horas después, firmó un contrato con la fórmula "any lawful use" —cualquier uso legal—, que es exactamente la cláusula que Anthropic se negó a aceptar. Por su parte, Altman prometió enmiendas. El problema es que, en Estados Unidos, los programas de vigilancia masiva de la NSA (Agencia Nacional de Seguridad) post-9/11 también eran "legales". Sin una ley que regule la IA militar, el criterio de legalidad significa lo que el Ejecutivo decida.
▸▸ PLATFORMER / AXIOS

Relacionado x2: X inundada de desinformación sobre los ataques a Irán. Antes de que cayeran las primeras bombas sobre Teherán, la plataforma ya estaba saturada de videos viejos presentados como recientes e imágenes generadas con IA atribuidas a los ataques reales. En paralelo, los iraníes recurrieron a Starlink, aplicaciones de mensajería descentralizada y VPNs para evadir el corte de internet decretado por su gobierno y compartir imágenes de los bombardeos.
▸▸ WIRED / BLOOMBERG

Relacionado x3: Las desinstalaciones de ChatGPT aumentaron un 295% después del anuncio del contrato con el Pentágono. Hubo publicaciones en Reddit animando al boicot, mientras la app de Claude llegó al número 1 en el App Store. Anthropic aprovechó para lanzar una herramienta que facilita importar el contexto de otras apps de IA directamente a Claude. 
▸▸ TECHCRUNCH

⎯⎯⎯⎯

Zuckerberg declara en juicio por adicción a las redes sociales: "los filtros de belleza son libertad de expresión". Zuckerberg ignoró a sus propios expertos en bienestar para mantener los filtros de belleza en Instagram. Argumentó que quitarlos, podría vulnerar la "libertad de expresión". Anécdota: el juez obligó a Zuckerberg y compañía, a sacarse los Ray-Ban Meta Smart Glasses antes de entrar a la sala.  

Relacionado: Meta planea añadir reconocimiento facial a sus smart glasses este año. Mientras tanto, más mujeres reportan haber sido grabadas sin consentimiento en espacios públicos.
▸▸ CNN / FT / TPP / NYT / NYT / CBS / NYT

⎯⎯⎯⎯

Instagram notificará a los padres si sus hijos buscan contenido sobre autolesiones. El anuncio suena razonable hasta que se piensa dos segundos: expertos advierten que la medida "podría hacer más daño que bien", porque deja a padres en pánico y sin herramientas para tener conversaciones difíciles. Además, el problema de fondo es el mismo: Instagram sigue recomendando activamente contenido sobre depresión y autolesiones a adolescentes vulnerables.

Relacionado: En paralelo, Apple ahora exige verificación de edad en Australia, Brasil, Singapur y Reino Unido para descargar apps para mayores de 18 años. El sistema usa la edad ya asociada a la cuenta del dispositivo.
▸▸ THE VERGE / BBC / 9TO5MAC

⎯⎯⎯⎯

EE.UU. planea lanzar un portal web para acceder a contenido "censurado" en Europa. Se trata de freedom.gov, que espejaría contenido bloqueado en Europa y otras regiones como una manera de luchar contra la censura. Un PEQUEÑO detalle: buena parte del contenido "censurado" puede ser material de abuso sexual infantil, deepfake de desnudos no consensuados, negacionismo del Holocausto y propaganda nazi. Una solución elegante al problema que nadie tenía. ¿Y para qué? Si existe X. 
▸▸ REUTERS 

⎯⎯⎯⎯

La IA contrata humanos para hacer tareas del mundo real. En una nueva plataforma de agentes de IA, los bots literalmente contratan personas para completar tareas físicas que ellos no pueden ejecutar: recoger paquetes o verificar información presencial. La IA es tu jefe. 
▸▸ WIRED

⎯⎯⎯⎯

India abraza los deepfakes de sus muertos. Se trata de una tendencia emergente: usar IA generativa para crear videos de personas fallecidas, reanimándolas para que hablen, canten o simplemente estén presentes en celebraciones familiares. Quizás no sea la mejor forma de lidiar con el duelo. 
▸▸ REST OF THE WORLD

⎯⎯⎯⎯

La IA no sabe leer archivos PDF. Un análisis revela que los modelos de inteligencia artificial tienen dificultades estructurales para procesar los PDF sin alucinar. La razón es bastante simple: el PDF fue diseñado para que las páginas se vean bien impresas, no para que extraigan su contenido. El problema no es menor y es muy paradójico: uno de los formatos de archivos más usados del mundo traba a estas tecnologías, cuando probablemente los documentos más importantes viven en PDF. 
▸▸ THE VERGE

⎯⎯⎯⎯

Associated Press se alía con Kalshi para publicar resultados electorales en la plataforma antes de las elecciones de mitad de período de 2026. Un poco de contexto: Kalshi es una plataforma donde se puede apostar dinero real sobre el resultado de elecciones, guerras o casi cualquier cosa. Uno de los problemas (son muchos) es que estos mercados tienen un historial demostrado de abuso de información privilegiada: por ejemplo, OpenAI despidió a un empleado por apostar en Polymarket con datos confidenciales. Un ex candidato a gobernador apostó sobre su propia candidatura en Kalshi. La agencia, intencionalmente o no, ayuda a normalizar las apuestas electorales como una forma legítima de seguir los procesos democráticos. Todo esto ocurre gracias a que los mercados de predicción gozan de impunidad. 
▸▸ MEDIAITE

⎯⎯⎯⎯

Burger King pone IA en los audífonos de sus empleados para medir si son suficientemente amables. El sistema monitorea en tiempo real el tono, las palabras y la "calidez" de la atención al cliente. ¿Cajita feliz? 
▸▸ THE VERGE

 

Ideas para masticar

Déficit democrático: el futuro de la guerra y la IA

Por segunda vez en (muy) poco tiempo, Estados Unidos lanzó un ataque militar sobre otro país buscando un cambio de régimen. Antes de que cayeran las primeras bombas sobre Teherán, la disputa entre Anthropic y el Pentágono ya dominaba los titulares de tecnología. Y aunque el escándalo contractual acaparó la atención, una de las preguntas que emergen de todo este horrible escenario se relaciona con quién gobierna la IA, sobre todo en contextos de guerra. Porque así como van las cosas, pareciera que nadie lo hace. Y esto no es solo un problema de gobernanza tecnológica, es también un problema democrático, donde lo que está en juego son vidas. 

El verdadero peligro no es el escenario de ciencia ficción del robot que se rebela y lanza misiles por cuenta propia. La amenaza es mucho más real y concreta. Los modelos de lenguaje generan blancos militares con coordenadas de localización precisas, comprimen el tiempo de planificación de semanas a horas. Una unidad de artillería puede hacer el trabajo de 2.000 personas con un equipo de 20. A esto se agrega el riesgo de homogeneización del criterio militar: si miles de analistas usan el mismo modelo, entrenado con los mismos datos y sesgos, el riesgo no es que la IA decida sola, sino que estandarice el pensamiento institucional justo donde más se necesita aplicar el pensamiento crítico. Y ya sabemos cómo termina eso.

Entonces la determinación de responsabilidades ante una tecnología de estas características no es solamente un detalle. 

Ese es el punto que el debate actual todavía no resuelve.  Los límites del uso militar de la IA no deberían acordarse en negociaciones entre un secretario de gabinete y un CEO. Por algo existe eso que se llama Congreso. Pero el Congreso no ha legislado. En ese vacío, el Ejecutivo de turno es el que define el criterio de "legalidad". Y en una administración que ya demostró que no reconoce los límites legales o constitucionales como obstáculos reales, "uso legal" puede llegar a significar casi cualquier cosa.

Si algo deja en claro el escenario internacional actual es que la discusión sobre gobernanza de la IA ya no puede vivir en el plano abstracto de los principios éticos de las empresas y sus marcos voluntarios. La IA está en la guerra y no hubo una discusión democrática sobre sus límites. Sin esa discusión, la rendición de cuentas es imposible. 





Subscribete a brief