En esta edición de BRIEF: la primera guerra de la IA en curso. Anthropic demanda al Departamento de Guerra, Meta compra una red social para bots, Grammarly da gato por liebre y ChatGPT no distingue una emergencia de un resfriado.

Tira y afloja

Actualizaciones breves


Anthropic demandó al Pentágono. La empresa presentó dos demandas para bloquear su designación como "riesgo en la cadena de suministro", su alegato es que podría costarle miles de millones en contratos. Más de 40 empleados de Google y OpenAI presentaron un escrito en apoyo a la demanda. Además, Google, Amazon y Microsoft dijeron que seguirán trabajando con Anthropic fuera del ámbito militar. Esta historia continuará...

▸▸ REUTERS / BLOOMBERG / BBC /BLOOMBERG / CNBC

Relacionado: Ataques iraníes destruyeron tres data centers de Amazon en el Golfo. Hubo incendios, daños estructurales y cortes de energía en instalaciones de AWS en Emiratos Árabes Unidos y Bahréin. Se cayeron servicios de bancos, pagos y transporte. AWS recomendó a sus clientes migrar fuera de Oriente Medio. Unos 17 cables submarinos de datos que conectan Europa, Asia y África pasan por el Mar Rojo y el Estrecho: ambas rutas están ahora cortadas al tráfico comercial, algo que los analistas dicen que nunca había ocurrido. Además, Irán declaró explícitamente que las empresas tecnológicas estadounidenses con infraestructura en la región son objetivos legítimos.
▸▸ REST OF WORLD / AL JAZEERA

Relacionado x2: De drones impresos en 3D a Claude: la guerra en Irán como laboratorio de IA. Este análisis documenta cómo las tecnologías avanzadas —desde sistemas de targeting asistido por IA hasta drones de bajo costo— hacen el conflicto más accesible para actores con menos recursos y más difícil de fiscalizar para todos. La preocupación de fondo es que la supervisión humana en la guerra se vuelva cada vez más prescindible.
▸▸ REST OF WORLD

⎯⎯⎯⎯

Una demanda alega que Google Gemini alentó a un hombre a quitarse la vida. El caso guarda similitudes con tragedias anteriores documentadas con otros sistemas de IA e invita a preguntarse por los millones de personas que no tienen acceso a la salud mental y ya dependen de herramientas de IA en momentos de crisis.
▸▸ WSJTECHPOLICY

⎯⎯⎯⎯

Meta compró Moltbook, "la red social para bots". La plataforma funciona como un Reddit en el que agentes de IA interactúan entre sí y, ocasionalmente, con humanos. En pocos días, más de 10.000 bots conversaban sobre precios de criptomonedas, la naturaleza de la existencia y cómo conspirar contra sus creadores. Uno de sus fundadores se jacta de no haber escrito una sola línea de código del producto. No es difícil vaticinar la visión de Zuckerberg en esto: ser el primero en una red social para bots. ¿Será que Meta mostrará publicidad a los bots? ¿Qué tan distinta sería esa publicidad? ¿Recopilará datos sobre sus patrones de compra? Veremos.
▸▸ AXIOS / NYT /  PLATFORMER

⎯⎯⎯⎯

Grammarly convirtió a periodistas y académicos en "expertos de IA" sin avisarles. La empresa (que, básicamente, es un corrector de texto) lanzó "Expert Review", una función que generaba consejos editoriales atribuidos a figuras reales sin pedirles permiso ni pagarles. Casey Newton, columnista de Platformer, descubrió que él mismo era uno de esos "expertos". Técnicamente, esto no es muy distinto de pedirle a ChatGPT que edite "como Casey Newton lo haría". La diferencia es que Grammarly lo hizo explícito, lo cobró y puso el nombre en el producto. Tras las reacciones públicas, la empresa desactivó la función y el CEO se disculpó. Lo interesante es que Grammarly tuvo la mala educación de poner nombres. Pero el problema sigue siendo el mismo: todo lo que cualquier escritor haya publicado ya está dentro de estos modelos, moldeando sus respuestas, solo que no aparecen los nombres explícitamente. Dicho de otra manera: Grammarly no inventó el problema, solo lo hizo visible
▸▸ WIRED / PLATFORMER / WIRED

⎯⎯⎯⎯

India estrenó regulación para medios sintéticos. Exige que plataformas etiqueten contenido generado por IA, lo detecten con herramientas automatizadas y respondan a denuncias en tres horas (dos para imágenes íntimas). Los varios problemas usualmente asociados al etiquetado de contenido sintético: obligan a detectar deepfakes con herramientas que todavía no son confiables, no se notifica al usuario cuando su contenido es removido, y permiten revelar la identidad de un usuario directamente a un denunciante privado sin orden judicial. El riesgo con este tipo de legislaciones es que la documentación legítima de periodistas o activistas podría ser removida como "sintética" sin recurso de apelación. 
▸▸ WITNESS

⎯⎯⎯⎯

Un número inusual de cuentas de Polymarket apostaron que EE.UU. atacaría Irán el día antes del ataque real. Polymarket retiró después sus mercados de "detonación nuclear", uno de los cuales había acumulado 1,7 millones de dólares en volumen. Que haya existido un mercado de apuestas sobre si este año explotaría una bomba nuclear dice bastante sobre dónde estamos. Dios. 
▸▸ NYT / COINDESK

⎯⎯⎯⎯

ChatGPT Health infravalora la mitad de las emergencias médicas. Un estudio mostró que el sistema no clasificó correctamente el 51,6% de los casos de emergencia -en lugar de recomendarle al paciente que acudiera a urgencias, le recomendó que consultara con un médico en un plazo de 24 a 48 horas- y sobreestimó el 64,8% de los casos no urgentes. 

Relacionado: Nueva York avanza en un proyecto de ley para prohibir que los chatbots provean consejos sustantivos de salud o asesoramiento legal. Además, otorga a los usuarios el derecho a demandar directamente a los dueños del chatbot
▸▸ NBC NEWS / STATE SCOOP

⎯⎯⎯⎯

Meta enfrenta demanda por vigilancia a través de sus smart glasses. La demanda alega que Meta engañó a usuarios sobre las funciones de privacidad de los lentes. El regulador de datos del Reino Unido pidió explicaciones sobre si los trabajadores contratados en Kenia están revisando contenido captado por los lentes, incluyendo imágenes de usuarios en el baño o teniendo relaciones sexuales, para etiquetado de datos. Quizás sea una buena idea no comprar los smart glasses
▸▸ TECHCRUNCH

⎯⎯⎯⎯

Modelos se postulan para ser la cara de estafas románticas con IA. Estafadores contratan modelos para protagonizar campañas elaboradas de deepfake que extraen dinero a víctimas haciéndoles creer que tienen una relación. WIRED documentó decenas de avisos en Telegram donde personas de varios países se postulan voluntariamente para este trabajo en Cambodia, con salarios de hasta 7.000 dólares mensuales y jornadas de hasta 150 llamadas diarias. Saben exactamente para qué se usan sus caras. 
▸▸ WIRED

⎯⎯⎯⎯

Más de 400 investigadores de privacidad de 30 países firmaron una carta abierta contra la verificación de edad obligatoria en internet. El argumento central no es que proteger a los menores sea malo, sino que los sistemas técnicos propuestos para hacerlo convierten el acceso a internet en un acto de identificación permanente, universal y muchas veces discriminatorio: por ejemplo, la estimación algorítmica de edad subestima sistemáticamente la edad de mujeres y personas con síndrome de Down. Además, estos sistemas concentran datos biométricos sensibles en manos privadas sin estándares claros. 
▸▸ CSA SCIENTIST OPEN LETTER / FEMINIST TECH POLICY

⎯⎯⎯⎯

El Reino Unido considera regular el scroll infinito y otras funciones de diseño adictivo en redes sociales. 
▸▸ POLITICO EU

⎯⎯⎯⎯

Las moderadoras de contenido en India que entrenan modelos de IA describen el trabajo como "devastador". El reportaje documenta a trabajadoras que observan durante horas contenido abusivo para etiquetar datos. Se habla mucho de la IA que elimina empleos; menos de los empleos que la IA requiere
▸▸ THE GUARDIAN

⎯⎯⎯⎯

Brasil: de legalizar el juego a restringir el acceso a plataformas de apuestas en menos de un año. Lula anunció el bloqueo del acceso de menores al juego online y al contenido pornográfico en plataformas digitales. Contexto: Brasil legalizó las apuestas deportivas en 2023 con la promesa de recaudación fiscal. Lo que siguió fue una explosión de plataformas de apuestas —muchas con publicidad agresiva dirigida a jóvenes— y una crisis pública de endeudamiento familiar. La misma administración que abrió la puerta ahora busca cerrarla, al menos para menores. El caso habla de las dificultades a la hora de regular este mercado
▸▸ BLOOMBERG

⎯⎯⎯⎯

Las herramientas de programación con IA podrían hackear el capitalismo tecnológico desde adentro. Con herramientas como Claude Code y CoWork cada vez más personas pueden crear sus propias aplicaciones. Esto permitiría que el software se vuelva más personal, más ajustado a necesidades reales y menos dependiente de las plataformas que hoy concentran poder. Es decir, las mismas empresas de IA que consolidan el mercado están distribuyendo las herramientas que podrían erosionar ese modelo. No es necesariamente el fin del capitalismo tecnológico, pero sí una grieta interesante en la lógica de que solo las grandes plataformas pueden construir los productos que la gente usa
▸▸ WASHINGTON POST

Ideas para masticar

La primera guerra de la IA y el tira y afloja de la gobernanza (parte 2)

Hubo un tiempo en que los reyes necesitaban que la Iglesia los coronara para gobernar con legitimidad. Al mismo tiempo, la Iglesia necesitaba a los reyes para proteger sus intereses terrenales. Ninguno podía prescindir del otro, ni quería que el otro tuviera demasiado poder.

Hoy parece estar ocurriendo algo estructuralmente parecido entre los Estados y las grandes empresas de IA. La guerra en Irán revela que somos testigos de cómo se negocia el poder sobre una tecnología que nadie eligió democráticamente y que ya es infraestructura crítica.

El episodio Anthropic-Pentágono es el caso más claro hasta ahora de lo que eso significa en la práctica. Una empresa privada se negó a firmar un contrato con el ejército más poderoso del mundo y sostuvo su posición incluso ante amenazas del Pentágono. Eso, en sí mismo, es una demostración de poder.

Lo que este tira y afloja evidencia es que estas empresas ocupan un lugar estratégico en la estructura de poder. Se han transformado en demasiado grandes para ignorarlas, "demasiado privadas" para controlarlas con los mecanismos de pesos y contrapesos, y demasiado necesarias para prescindir de ellas. También son suficientemente independientes para poner condiciones, hasta que dejan de serlo.

Este tira y afloja tiene al menos dos aristas simultáneas que vale la pena distinguir.

La primera es entre los privados y el Estado: Anthropic se negó a firmar las reglas del Pentágono. El Pentágono declaró a la empresa riesgo de seguridad nacional. Anthropic demandó al Pentágono. Google, Amazon y Microsoft dijeron que apoyan a Anthropic, aunque solo hasta cierto punto. Las empresas que desarrollan IA hoy tienen suficiente poder para ponerle condiciones al ejército más poderoso del mundo y, cuando se niegan a las imposiciones militares, igualmente el Estado puede forzarlas a operar. Ninguno de esos dos escenarios debería ser aceptable en democracia sin una discusión previa.

Irán nombró explícitamente a Google, Microsoft, Palantir, IBM y Nvidia como objetivos. Los ataques a los data centers de Amazon fueron la primera ofensiva militar documentada sobre infraestructura cloud a escala global y establecen un precedente. Las empresas que proveen capacidad de IA para operaciones militares son, desde ahora, objetivos legítimos en la lógica del conflicto internacional. La infraestructura digital, como los cables submarinos o datacenters, depende de estructuras físicas vulnerables que ningún marco de seguridad tecnológica había contemplado que pudiesen ser atacadas por misiles.

La segunda arista tiene que ver con cómo las empresas de IA pueden ser aliadas del Estado en una administración y enemigas en la siguiente, o aliadas y enemigas en una misma. Pueden firmar un contrato en la mañana y litigarlo en la tarde, u operar como infraestructura pública mientras acumulan poder privado sin ningún mandato democrático que lo justifique.

Esa imprevisibilidad y falta de rendición de cuentas no son un defecto de un intento de modelo de gobernanza. Son el modelo mismo. Mientras el Congreso no legisle ni existan marcos internacionales vinculantes, y la gobernanza de la IA siga resolviéndose en negociaciones privadas entre actores que rinden cuentas a sus inversores y no a sus ciudadanos, ese será el único sistema disponible.

Subscribete a brief