El hombre que se arrepintió del scroll infinito

Aza Raskin diseñó el scroll infinito hace veinte años. Casi desde entoces, se arrepientee de la creación que le hizo millonario. Al menos eso repite en todas y cada una de sus entrevistas. Mientras, su invento se convierte en el mayor ladrón de tiempo que ha conicido la humanidad.

Hay algo que Aza Raskin repite desde hace años en casi todas sus entrevistas: que lo siente. Tenía veintidós años cuando diseñó el scroll infinito. Era 2006. El problema que intentaba resolver era de los más banales que puede plantearse un ingeniero: obligar al usuario a hacer clic para pasar de página resultaba tosco, un roce innecesario. La solución fue tan limpia que se volvió invisible. En lugar de páginas, un río. En lugar de una pausa que pregunta si quieres seguir, un torrente sin orilla visible, sin ese borde inferior que le diría al dedo que puede parar.

Raskin ha calculado —las cifras exactas cambian según la fuente, lo que ya dice algo sobre cómo se mide esto— que el scroll infinito consume el equivalente a cientos de miles de horas humanas al día en todo el mundo. Cofundó el Center for Humane Technology. Da charlas. Y lleva años describiendo lo que hizo como una trampa que no requirió intención maliciosa, solo la ausencia de una pregunta: ¿para quién funciona esto, exactamente?

Para quién funciona. Esa es, todavía, la pregunta que suele no hacerse.

El diseño de producto se presenta casi siempre como ingeniería neutral: elecciones técnicas, optimizaciones de experiencia, mejoras de usabilidad. Pero alguien decide que no habrá pausa. Alguien decide que la notificación llegará en el momento estadísticamente más probable de vulnerabilidad. Alguien decide que el algoritmo priorizará el flujo de imágenes que dispara mayor respuesta emocional, porque mantener al usuario en tensión es el objetivo medido, el que aparece en los informes de producto. Cuando esas decisiones escalan a miles de millones de usuarios, acaban funcionando como una política. Y las políticas tienen víctimas.

Esto es lo que late bajo el juicio que comenzó el 9 de febrero en un tribunal de Los Ángeles, el primero en que Mark Zuckerberg declara como testigo ante un jurado. La demandante se identifica como K.G.M. —la prensa la llama Kaley— y alega que Instagram y YouTube la expusieron desde los nueve años a arquitecturas diseñadas para maximizar el tiempo que pasaba en ellas, con consecuencias que recoge su expediente clínico. El elemento más revelador del proceso, sin embargo, no es la demanda. Son los documentos internos de Meta que han salido a la luz durante el descubrimiento de pruebas.

Entre 2018 y 2022, los investigadores de la propia empresa generaron estudios que, en circunstancias normales, no habrían llegado nunca a un tribunal. Uno de ellos, de noviembre de 2018, utilizó metodología experimental —el estándar más exigente para distinguir causalidad de correlación— y concluyó que la comparación social negativa que induce Instagram tiene efectos causales sobre el bienestar de sus usuarios. Las probabilidades de sufrirla eran ocho veces mayores para una chica adolescente que para un hombre adulto. Un segundo análisis, con más de 50.000 participantes en diez países, encontró que casi la mitad de las adolescentes comparaban habitualmente su aspecto físico con el de otras usuarias. Un tercero reveló que el 13,9% de los menores de entre 13 y 15 años recibía avances sexuales no deseados en la plataforma cada semana.

Meta los tenía. Los había generado, archivado, y seguía midiendo el éxito de sus productos en tiempo de pantalla.

Cuando un estudio encargado a Nielsen —participantes que dejaban de usar las aplicaciones durante un mes— mostró mejoras en depresión, ansiedad y soledad tras solo siete días, Meta lo detuvo. Empleados compararon esa decisión con la conducta histórica de las tabacaleras, en documentos que hoy son prueba judicial. No lo escribe un activista. Lo escribe alguien de dentro.

En enero de 2024, bajo juramento ante el Senado, Zuckerberg declaró que la ciencia disponible no había demostrado un vínculo causal entre el uso de redes sociales y peores resultados de salud mental en jóvenes. Lo dijo seis años después de que los investigadores de su propia compañía escribieran lo contrario, con diseño experimental, en documentos del sistema de investigación interno de Meta.

Hay una forma más precisa de describir eso que hipocresía corporativa. Es la distancia calculada entre lo que una institución sabe en privado y lo que construye como relato en público. Una brecha que no requiere coordinación explícita ni órdenes escritas. Basta con que las métricas de crecimiento sean el único termómetro que importa, y con que los estudios que amenazan esas métricas lleguen al archivo en lugar de a la sala de dirección. Lo que se suprime rara vez es la verdad completa. Solo la parte incómoda.

Lo que la jueza Carolyn Kuhl dictaminó en noviembre de 2025 —que las reclamaciones por diseño defectuoso no están protegidas por la Sección 230, el blindaje legal que durante décadas eximió a las plataformas de responsabilidad— abre una grieta con consecuencias que van más allá de este juicio. Si el scroll infinito no es contenido sino arquitectura, y si la arquitectura tiene autor, hay alguien a quien se le pueden exigir explicaciones. La distinción parece técnica. En realidad, reorganiza quién responde y quién no.

En Europa, el Reglamento de Servicios Digitales incorpora ya el concepto de «diseño adictivo» como categoría regulable. La Digital Fairness Act, en debate en las instituciones comunitarias, avanza en la misma dirección con propuestas específicas sobre patrones oscuros y sistemas de recomendación. El vocabulario que circulaba en los documentos internos de Meta —los que no debían hacerse públicos— está llegando ahora a los textos legislativos. No porque los reguladores hayan sido especialmente previsores. Sino porque los informantes y los procesos judiciales forzaron la apertura del archivo.

Raskin sigue dando charlas. Sigue diciendo que lo siente. Y eso, a estas alturas, es casi lo menos interesante del asunto: que un individuo reconozca su parte en algo que el sistema siguió produciendo con entusiasmo durante veinte años. La pregunta que el juicio pone sobre la mesa es otra, más fría y difícil: si puede existir responsabilidad colectiva en una cadena de decisiones donde cada eslabón, por separado, tenía una justificación técnica perfectamente razonable.

De momento, la responden un jurado y una jueza en Los Ángeles. Después, quizá, los legisladores en Bruselas. Pero la pregunta no desaparecerá cuando acabe el juicio.