TOMA UN DESCANSO
Actualizaciones breves
Europa quiere terminar con el scroll infinito. La Comisión Europea concluyó preliminarmente que el diseño de TikTok podría violar la Digital Services Act al constituir un “riesgo sistémico”. Mientras, en California ya comenzó el primer juicio por “adición a las redes sociales”. EE.UU. lo discute en tribunales y Europa lo empuja vía regulación. Por primera vez, parece ser que en ambos lados del Atlántico apuntan a las decisiones de diseño de las plataformas y no al contenido.
Súper relacionado: Meta, TikTok y Snap aceptaron someterse a evaluaciones externas sobre cómo protegen la salud mental de adolescentes. Discord, YouTube, Pinterest, Roblox y Twitch también se sumaron. Se evaluarán aspectos como los límites al scrolling, las pausas obligatorias y los controles parentales, y las empresas que obtengan una alta calificación recibirán una insignia pública tipo “blue shield”. Rápidamente, Meta circuló mucha publicidad promoviendo su trabajo de seguridad con adolescentes, mientras Youtube argumenta en juicio que no es una red social y que no es adictiva (¿Hay de verdad diferencias sustantivas entre un video de TikTok, un Reel y un Short?).
Relacionado: Discord anunció que, desde marzo, todas las cuentas serán configuradas por defecto como “adolescente” salvo que el usuario sea verificado como adulto. Utilizará un modelo de inferencia de edad que combina información sobre la antigüedad de la cuenta, el dispositivo y el comportamiento en la plataforma. Es decir: Además de analizar tu conducta, pueden pedirte foto de tu carnet o video-selfies para el reconocimiento facial. Ok, pero no olvidemos que hace cuatro meses, una filtración expuso 70.000 IDs entregadas a un proveedor. Si la inferencia algorítmica de edad se vuelve un estándar de la industria, las preguntas regulatorias se acumulan: ¿Deben las plataformas certificar la precisión de sus modelos antes de desplegarlos a escala? ¿Quién fija el estándar técnico mínimo? ¿La medida activa obligaciones bajo GDPR (Reglamento General de Protección de Datos de la Unión Europea) o COPPA (Regla de Protección de la Privacidad Infantil en Línea de Estados Unidos)?
▸▸ TECH POLICY / TECH POLICY / PLATFORMER / WP / BLOOMBERG / TECHCRUNCH
⎯⎯⎯⎯
Buena columna que cuestiona la tendencia de prohibir redes sociales a menores invocando el “interés superior del niño”. Ese principio no solo exige la protección contra el daño, sino que también protege la libertad de expresión, el acceso a la información y la participación cultural. Las prohibiciones generales trasladan el problema, no corrigen el diseño adictivo y descargan la responsabilidad en usuarios y adultos.
▸▸ IX
⎯⎯⎯⎯
Polymarket intenta atraer usuarios en China pese a estar prohibida en el país. La plataforma está oficialmente bloqueada en China, pero eso no impide que la empresa contrate staff que hable mandarín, sume apuestas sobre el Año Nuevo Lunar y busque evitar las restricciones oficiales. Lo interesante es la tendencia: la expansión de mercados de predicción basados en criptomonedas y restricciones legales insuficientes; aunque, en realidad, no haya intención de cumplir con ellas.
▸▸ RESTOFTHEWORLD
⎯⎯⎯⎯
El primer “crash” serio de criptomonedas confirma que el sector ya no es un problema de foros especializados. Impacta fondos regulados, mercados tradicionales y carteras institucionales. Bienvenidos al sistema financiero de verdad: con todo lo que eso implica.
▸▸ NYMAG
⎯⎯⎯⎯
Marruecos quiere construir una IA africana con soberanía digital propia e inclusión lingüística. En vez de discutir cómo regular modelos extranjeros, la apuesta es producir los propios.
▸▸ RESTOFTHEWORLD
⎯⎯⎯⎯
La IA puede escribir novelas románticas completas y probablemente no lo notes. ¿Por qué? Primero, porque el género es estructuralmente predecible. Y los modelos de lenguaje funcionan precisamente por predicción de patrones. Segundo, porque los lectores muchas veces no distinguen el origen (o no les importa), lo relevante es hacerlos sentir identificados con una emoción. Las autoras más convencidas del uso de IA para escribir sus novelas, apuestan a que el público que aún se resiste a la elección de libros escritos con la asistencia de la inteligencia artificial eventualmente dejará de hacerlo.
▸▸ NYTIMES
⎯⎯⎯⎯
En diseño, la imperfección ahora se usa para “simular autenticidad”. La textura analógica y la asimetría manual emergen como estética de resistencia frente a la perfección algorítmica generada por IA. El problema es que simular lo humano no es lo mismo que serlo. Cuando la imperfección se vuelve tendencia, deja de ser imperfección. ¿O no?
▸▸ ITSNICETHAT
Ideas para masticar
¿Adiós al scroll infinito?
Durante años, el debate sobre las redes sociales giró en torno a la moderación de contenido a partir de temas como la desinformación, los discursos de odio, la libertad de expresión y la Sección 230. Hoy, la discusión ya no es sólo sobre qué se publica, sino cómo están diseñadas las plataformas. Y este giro puede ser muy disruptivo.
Por primera vez, un juicio en EE.UU. no pregunta qué contenido se publicó, sino cómo fue diseñado el producto. El juicio en Los Ángeles contra Meta y Google no indaga sobre la posible ilegalidad del contenido; en cambio, cuestiona si funciones como el scroll infinito, el autoplay y los sistemas de recompensa algorítmica constituyen un diseño deliberadamente adictivo. Lo que deberán decidir es si el daño alegado provino del contenido consumido o del funcionamiento de la plataforma. En otras palabras, si la Sección 230 protege también las decisiones de diseño.
La lógica jurídica que intentan construir los demandantes es la siguiente: la Sección 230 no puede proteger decisiones de ingeniería. Un feed que no termina nunca no es "contenido de terceros"; es una decisión de diseño. Y si esa elección genera daños previsibles, entonces la inmunidad no aplica a los responsables de la plataforma.
En Europa, la Comisión Europea concluyó preliminarmente que el diseño de TikTok podría constituir un “riesgo sistémico” bajo la Digital Services Act (DSA). Esto quiere decir que no se trata de un daño aislado o anecdótico, sino de efectos estructurales que, por su escala y configuración, pueden afectar de manera amplia y previsible a grupos vulnerables -en este caso, menores- y al funcionamiento saludable del entorno digital.
Más allá de la discusión legal o regulatoria, hay una pregunta que parece seguir dando vueltas: ¿Existe realmente una “adicción” a las redes sociales? ¿O estamos hablando de hábitos intensivos en un entorno altamente competitivo por nuestra atención? Como explica este artículo de Stanford Medicine, el uso de las redes sociales puede provocar la liberación simultánea de grandes cantidades de dopamina, la principal sustancia química implicada en la adicción que se secreta cuando participamos en una experiencia gratificante. Sí, no es heroína, pero tampoco es pasiflora. Para las personas adultas, puede ser debatible, pero un adolescente no compite en igualdad de condiciones frente a un sistema diseñado por equipos de ingeniería conductual, optimizado por millones de datos. Como sea, la discusión en torno a las conductas digitales compulsivas es compleja y multifactorial.
Hemos visto cómo muchos países han optado recientemente por prohibir las redes sociales a personas menores de edad. Pero la discusión sobre el diseño adictivo muestra que la prohibición puede ser, en muchos casos, una forma de mantener el modelo de negocio basado en la economía de la atención, ya que no modifica la estructura que maximiza la permanencia y el engagement.
Rediseñar el funcionamiento de las plataformas, aunque está por verse, significaría intervenir en los sistemas de recomendación y, por tanto, afectar el corazón del modelo económico: maximizar tiempo para vender publicidad.
¿Cómo se implementaría algo así? ¿Con feeds paginados y no infinitos? ¿Con cortes automáticos? ¿Los algoritmos deberían ser distintos según la edad de las personas usuarias? ¿Habría límites a las recomendaciones personalizadas?
Si algo puede marcar este momento, no es la comprobación de que las redes son “como drogas”. Es algo más concreto: que el diseño podría también generar responsabilidad.