Lo que podemos aprender de Worldcoin. ¿Cómo plantear la privacidad en la nueva era digital?

El debate sobre ceder datos personales por tecnologías que simplifiquen nuestra vida no es nuevo. Sin embargo, Worldcoin, la compañía creada por Sam Altman, agudiza la discusión al cuestionarnos si estamos dispuestos a ofrecer información aún más delicada a cambio de beneficios económicos. Al compensar a los usuarios con criptomonedas por el escaneo del iris, esta empresa ha avivado la conversación, especialmente en España, donde más datos biométricos se han recopilado, lo que nos obliga a reflexionar sobre las posibles repercusiones en nuestros derechos fundamentales.

La Agencia Española de Protección de Datos intervino de manera excepcional al prohibir, desde el 7 de marzo y durante los tres meses siguientes, el tratamiento y uso que Worldcoin pretendía hacer del escaneo del iris de más de 400,000 españoles. La directora de la institución, Mar España, aunque quiso mandar un mensaje de tranquilidad también afirmó que se trataba de una decisión única a lo largo de toda la historia del organismo.

Resulta curioso observar cómo el mismo individuo detrás del impulso de esta tecnología sea ahora quien sugiere soluciones a los dilemas que esta presenta, tales como discernir si detrás de una cuenta en redes sociales se encuentra un ser humano o un bot, o garantizar la autenticidad de los votantes en elecciones mediante el uso de datos biométricos.

La irrupción de las nuevas tecnologías nos ha traído múltiples beneficios, pero el control digital cada vez más visible y palpable plantea serios dilemas éticos y legales que se deben atajar de inmediato. Por muy utópico que suene, en China ya se está aplicando desde hace varios años el sistema de ‘social scoring’, lo que aquí denominamos modelo de ‘crédito social’.

Este se trata de un sistema de evaluación que permite a las autoridades hacer uso de toda la información disponible acerca del comportamiento de los individuos, recopilando bases de datos públicas, lo publicado en redes sociales, imágenes de cámaras de vigilancia, sistemas de reconocimiento social, etc., para elaborar una puntuación y emplearla para “premiar” o “castigar” a cada persona.

Aquellos que disponen de un buen historial en todas las áreas vigiladas pueden recibir un tratamiento preferencial por parte del gobierno y, por ejemplo, tener más y mejor acceso a subsidios públicos. Por el contrario, aquellos que registran malos resultados se enfrentan a sanciones, como la exhibición pública de su información, la prohibición de participar en licitaciones gubernamentales, consumir determinados bienes de lujo o salir del país. Las consecuencias de una puntuación de ‘crédito social’ baja pueden ser graves y afectar directamente al usuario al punto de llegar, incluso, a restringirle viajar, limitarle las opciones de empleo o el acceso a créditos.

A modo de anécdota, durante mis cinco años viviendo en el país, por desgracia, un día perdí la cartera. Al ir a comisaría a denunciarlo, la policía identificó a la persona que se la había llevado a través de unas cámaras de seguridad para, inmediatamente después, llamarla por teléfono solicitándole que me la devolviera lo antes posible. Un hecho que, sin duda, hoy en día sería impensable que sucediese en España. 

El sistema chino de crédito social combina la evaluación de la solvencia financiera tradicional con la «solidez social». A pesar de la diferencia de sistemas, si lo comparamos con lo que sucede en Occidente, son innegables las preocupaciones que se generan entorno a la existencia de una vigilancia omnipresente, donde se monitorea constantemente quién hace qué y dónde. Si bien este modelo puede promover que todo el mundo cumpla con las normas, también plantea dudas importantes sobre la privacidad y la libertad individual.

Si observamos lo que sucede más cerca de nuestras fronteras -e incluso en nuestro propio país -, a diferencia de China, aquí la vigilancia digital está más relacionada con la optimización de servicios y la publicidad personalizada. Las grandes empresas tecnológicas recopilan grandes cantidades de datos sobre la población, utilizando la inteligencia artificial para comprender mejor los comportamientos individuales y, así, adaptar los productos a los gustos específicos de cada consumidor.

Este modelo utilizado en China parece poco probable que llegue a nuestras fronteras, teniendo en cuenta la posición europea tanto a nivel regulatorio como social. La sociedad occidental entiende la privacidad como un derecho humano fundamental lo que provoca que, en el centro de sus políticas, esté la transparencia en el uso de la información recibida y la exigencia previa de consentimiento. Los datos personales se consideran parte integral de la identidad de una persona, no simples mercancías intercambiables.

A pesar de ello, casos como el mencionado de Worldcoin plantean la duda de si debemos preocuparnos por la falta de conciencia social acerca de nuestra privacidad y qué tipo de sistemas de control vamos a implementar en nuestras sociedades, cada vez más digitales, para asegurar un consentimiento informado y respeto por la privacidad. Tiene que ser desde Europa donde aboguemos por la protección de los derechos humanos fundamentales.  Para preservarlos es imprescindible diseñar una legislación que proteja estos valores, sin detener el avance pero asegurándonos de no dejar a nadie atrás.

*Jose Manuel Mateu de Ros, CEO y fundador de IQube