En Barcelona, cada calle y plaza tiene un pulso propio, y ahora ese latido se entrelaza con sensores, datos y algoritmos que leen cada movimiento antes de que suceda. Los semáforos, autobuses y farolas continúan marcando su propio compás, pero se suman redes invisibles que transforman cada decisión urbana en un cálculo anticipado. Este nuevo pulso hace que la ciudad sea más inteligente, pero también más delicada y dependiente de la gestión responsable de su propia información.
En ese cruce entre tecnología, ética y productividad se celebró un nuevo encuentro de Retina: IA responsable: ¿puede la ética ser una ventaja competitiva?, que tuvo lugar el 14 de noviembre en el Estudi Toresky de Barcelona, donde expertos del sector público y privado debatieron sobre cómo la inteligencia artificial puede transformar —y ya está transformando— el funcionamiento de Barcelona y, con ella, de todo un ecosistema económico y social en expansión. El director de Retina, Jaime García Cantero, abrió la conversación recordando el desafío de fondo: “¿Cómo puede la tecnología cambiar las ciudades y transformar la vida de los ciudadanos?”. No se trataba solo de hablar de modelos, sino del impacto real en la vida de las personas.
La ciudad como laboratorio urbano
El primero en tomar la palabra fue el director general de BIT Habitat del Ayuntamiento de Barcelona, Michael Donaldson, quien habló desde la experiencia de gestionar una ciudad que experimenta, se equivoca y aprende con rapidez. Para él, Barcelona es un “laboratorio urbano” donde los retos no son abstractos: “Emergencia climática, movilidad, privacidad o brecha digital exigen capacidades distintas a las administraciones tradicionales. Ahí la IA se presenta como una pieza clave, pero nunca neutral”.
Donaldson recordó cómo la pandemia aceleró la adopción de tecnologías que ya estaban en los despachos, pero que aún no habían saltado a la calle. El ejemplo más claro fueron los drones para controlar la ocupación de las playas sin comprometer la privacidad: eran capaces de calcular densidades sin grabar rostros. “Siempre que aplicamos IA ponemos la privacidad por defecto”.
Pero Donaldson no quiere que “IA” se asocie únicamente a eficiencia, vigilancia o automatización. También habló de proyectos culturales en los que el movimiento de los ciudadanos genera música en tiempo real. “Vamos a ir generando música por IA y 24-7, con lo cual el espectador, que es el ciudadano, también se convierte en protagonista y nuevamente en espectador con la música que él mismo ha generadoa través de IA,” explicó. La idea es que la ciudadanía comprenda que la IA no son solo robots o herramientas técnicas, sino que forma parte de la vida urbana y puede generar experiencias únicas.
Y en ese punto, García Cantero volvió a lanzar una pregunta: “La tecnología no toma decisiones; las personas sí. Entonces, ¿cómo nos aseguramos de que sigamos al mando?”.
La ética no es un módulo aparte: es la arquitectura
Fue entonces cuando la reflexión tomó un giro más profundo gracias a la profesora de ESADE, Irene Unceta, quien introdujo un matiz que se convirtió en uno de los hilos centrales del encuentro: la relación entre autonomía individual y diseño tecnológico. “Debe ser un diálogo sobre cómo la tecnología se relaciona conmigo. La ética debe formar parte del proceso, no ser una clase aparte”.
Para Unceta, uno de los riesgos más invisibles de la IA es que nos acostumbra a renunciar a nuestra propia autoridad decisoria: “A mí no me gusta asociarle al usuario la responsabilidad, porque creo que eso es muy peligroso. Como decía, debe ser un diálogo bilateral”, afirmó la experta.
Ese desplazamiento —continuó— es casi imperceptible: “Nuestra capacidad de tomar decisiones está supeditada a otras cosas. Asumimos que nos den cosas que nos gustan y entonces decidir ya no nos parece tan importante”. Lo que está en juego no es solo privacidad: es autonomía, capacidad crítica, pensamiento propio.
La docente insistió en que la ética debe estar integrada en el proceso de creación y no convertirse en un trámite administrativo o una asignatura marginal: “Los desarrolladores trabajan en entornos donde hay poco debate ético. Es muy difícil operacionalizar lo que dice la ética, bajarlo a principios que yo me pregunto en el proceso”. Esa desconexión —señaló— es estructural. Y por eso, el cambio no puede recaer solo en los ciudadanos o en los programadores, sino en cómo formamos a los futuros profesionales: “Nuestra responsabilidad como docentes es trasladar este debate, pero no al final”, concluyó. Llegar tarde a las cosas, finalmente, no es llegar del todo.
la IA responsable: principios y práctica
La directora del área Digital de Eurecat, Lali Soler, explicó llego su turno cómo el centro tecnológico Eurecat trabaja con empresas catalanas para trasladar innovación al tejido industrial. Su misión es: “materializar parte del conocimiento básico en forma de activos, algoritmos, metodologías, frameworks de trabajo que puedan mejorar las capacidades de innovación de las empresas”. En inteligencia artificial, desarrollan algoritmos adaptados a distintos sectores, ayudando a las empresas a ser más competitivas.
Soler aclaró conceptos erróneos sobre IA: “Antes de eso sí que yo me posiciono muy claramente en el hecho de que la inteligencia artificial no deja de ser un loro”, insistiendo en que los modelos aprenden de datos proporcionados por humanos y no razonan por sí mismos.
Eurecat integra principios de responsabilidad desde el inicio: sistemas libres de sesgos, auditables, datos anónimos y entornos privados. “No vamos a desplegar ningún tipo de sistema en ningún tipo de entorno del sector que no cumpla unos principios de responsabilidad”, aseguró Soler. La regulación europea, añadió, es una oportunidad: “Si te planteas desde el principio diseñar un sistema responsable de inicio a fin, te vas a ahorrar muchos problemas… y vas a favorecer la sociedad”, aseguró.
La industria: inteligencia artificial con materialidad
El encuentro dio entonces un salto al ámbito industrial con el director del Centro Internacional de HP en Barcelona y presidente mundial de la división de Gran Formato HP, Daniel Martínez. Su intervención aterrizó el debate en la materialidad de la IA: dispositivos, energía, modelos comprimidos, robótica y fabricación avanzada.
“La inteligencia artificial lo cambia todo”, comenzó. Y lo demostró con un ejemplo concreto: la digitalización de planos de construcción que antes requerían horas de vectorización manual. “Ahora se hace en minutos y pronto será posible procesarlo directamente en el dispositivo, protegiendo la información”.
Para Martínez, el gran desafío es energético. La mayoría de los modelos de IA se entrenan y ejecutan hoy en grandes centros de datos con un consumo que crece de forma exponencial. Pero su equipo está empujando en otra dirección: “Lo que estamos viendo es que mucho de ese procesamiento se puede hacer en el dispositivo”. Esa tendencia —explicó— implica trabajar con modelos más pequeños, más eficientes, diseñados para tareas específicas y capaces de ejecutarse en chips especializados.
La prueba está en el mercado: “El 25 % de los PCs que vende HP incorporan una NPU”. Eso permite crear asistentes locales, como el proyecto “Companion”, que permitirá que los usuarios interactúen con sus documentos sensibles sin que éstos salgan del dispositivo: “Eso te permite que tienes total privacidad sobre esos datos y estás personalizando ese dispositivo para ti”.
La IA, dejó claro, no es solo software: es infraestructura, es hardware, es cadena de valor industrial.
La administración: eficiencia con derechos
La última intervención fue la del director general de Inteligencia Artificial, Eficiencia y Datos en la Administración de la Generalitat de Catalunya, Jaume Miralles, quien abordó cómo integrar la IA en los servicios públicos tomando como referencia una pregunta de García Cantero sobre transversalidad y complejidad.
Miralles subrayó que el propósito de todo lo que hacen está orientado al ciudadano: “La respuesta fácil es todo, porque realmente el propósito de todo lo que se está haciendo está muy orientado al ciudadano. De hecho, vengo del sector privado y una de las grandes cosas que me está realmente comprometiendo es que veo que este gobierno en el día a día está realmente preocupado por solventar los problemas de los ciudadanos. Obviamente no es inmediato, lleva tiempo, pero se están haciendo cosas”, afirmó el director general.
En cuanto a la IA responsable, destacó: “A mí me gusta hablar del uso responsable de la IA. Por un lado, es el uso responsable de la tecnología, cómo la usas, y liga con lo que decía Irene antes”, declaró Miralles. “Luego también hay que tener en cuenta a los proveedores de tecnología y principios de ética. Primero se hace un análisis de riesgo. La IA no va a decidir; van a decidir las personas. Esto es la línea roja que nos hemos puesto, un pacto social”.
Miralles defendió también la colaboración público-privada: “Creemos en una colaboración público-privada que será más circular de lo que hay ahora. Por ejemplo, la administración colabora con datos abiertos, que antes eran solo para transparencia y ahora ayudan a crear productos. Además”, insistió el director general, “en la contratación habrá requerimientos de que la tecnología tenga componentes éticas. No todo se hará con modelos generalistas: usamos el modelo más pequeño posible para la tarea, haciendo fin-tuning, para que sea más local, más controlado y eficiente”.
La Generalitat, explicó a modo de conclusión, revisará riesgos antes de desplegar modelos en ámbitos sensibles y garantizará supervisión humana en decisiones que puedan afectar derechos fundamentales.
Una ciudad que piensa su propio futuro
El encuentro celebrado en el Estudio Toreski de Barcelona no cerró con conclusiones absolutas porque el futuro no está cerrado. Pero dejó clara una idea: la inteligencia artificial no llegará a Barcelona como una capa tecnológica impuesta desde arriba, sino como una conversación entre instituciones, industria, academia y ciudadanos.
En la suma de voces apareció un hilo común: Barcelona no aspira a tener más tecnología, sino a tener mejor tecnología. Con propósito. Con valores. Con diseño. Con responsabilidad. La pregunta que abrió García Cantero sigue vigente: ¿cómo logramos una tecnología que nos lleve a lugares mejores? La respuesta, parece, no está en manos de los algoritmos. Está en las nuestras.