Evento

La IA que queremos: transparencia, inclusión y bien común

En el evento Tech4Good 2025, organizado por Retina y patrocinado por Santander, Google, Iberia, Indra, Ineco y Quibim, expertos de empresas, académicos y filósofos debatieron sobre el futuro de la inteligencia artificial y su impacto en la ética, la sostenibilidad y la gobernanza. La jornada puso sobre la mesa una pregunta central: ¿cómo podemos aprovechar la IA para el bien común sin abdicar de nuestra responsabilidad y humanidad?

En 1954, el escritor Frederic Brown publicó un relato titulado La respuesta, en el que una computadora: “pondría en relación, con un solo clic, todos los ordenadores de todos los planetas habitados del Universo (96 billones de planetas), en un gran circuito que los transformaría en un gigantesco superordenador, un monumental monstruo cibernético que reuniría el saber de todas las galaxias”. Una vez activado el aparato, el encargado de hacerle la primera pregunta sería el ingeniero Dwar Reyn, quien, llegado el momento, le plantea a la mesiánica máquina una cuestión hasta entonces insondable: ¿existe Dios? El imponente aparato, con voz de ultratumba, responde: “Ahora sí”, instantes antes de que un rayo caiga sobre el botón de apagado de la computadora, inutilizándolo para siempre en pro de la omnipotencia de la máquina.

Con esta historia, el director de Retina, Jaime García Cantero, dio el pistoletazo de salida al evento Tech4Good 2025 de Retina, con el impulso de Santander, Google como socio anual e Iberia, Indra, Ineco y Quibim como patrocinadores, celebrado en la Phygital Gallery de Madrid. El relato, que data de años antes de los primeros avances en Inteligencia Artificial, da fe de cómo la humanidad siempre ha temido la tiranía de la tecnología. No obstante, Terminator no es un documental, y debemos dudar de los agoreros apocalípticos que así nos lo pretenden vender. Lo mismo que de quienes se lucran de enarbolar el progreso tecnológico como una inyección neutra de mejoras generales para la vida de todos.

Con este fin, García Cantero advirtió del peligro de rendirnos al “culto de la todología” en lo que se refiere a Inteligencia Artificial. Esa nueva religión de quienes creen saberlo todo y dejan a los demás sin saber nada. Su advertencia flotó sobre el auditorio como una invitación a recuperar, más que la duda, la atención a la palabra experta, dejando a un lado las catervas de oportunistas que un día son epidemiólogos, al otro expertos inmobiliarios y, al siguiente, cirujanos de los algoritmos. Poder extraer la escurridiza verdad de la zona gris entre el temible Armagedón y el prometido Paraíso de la IA, reside en escuchar a las verdaderas voces expertas, reunidas en ágoras de debate como el evento Tech4Good, de Retina.

El auténtico debate de trastienda reside así, no en si la inteligencia artificial puede pensar, sino si nosotros aún queremos hacerlo. Y defender nuestro lugar habida cuenta de este razonamiento. De ahí que, antes de dar paso a los muchos ponentes, el director de Retina recordara la contundente reflexión de Ortega y Gasset, que reconocía los peligros de no decidir por nosotros mismos, en vista de que otros lo harán y, lo más seguro, contra nosotros. Se extendió así una pregunta lapidaria entre los asistentes: ¿seguirá la IA siendo una herramienta al servicio y beneficio de unos pocos, o llegará mejorar la vida de los muchos?

Inteligencia común para el bien común

El primer bloque, dedicado a pensar la IA desde la ética, comenzó con la voz de la catedrática emérita de Ética y Filosofía Política en la Universidad de Valencia, Adela Cortina, quien reflexionó con atino y profundidad sobre estas cuestiones en su obra: ¿Ética o ideología de la Inteligencia Artificial? (Paidós, 2024). Según la filósofa, debemos tener clara una cosa: “las máquinas simulan la inteligencia, pero no son inteligentes”. Una aseveración que indujo a la catedrática a proponer el desarrollo de otro término a la IA, porque: “la palabra inteligencia le queda grande y nos reduce a nosotros”.

Según Cortina, el riesgo no está en que la Inteligencia Artificial piense por sí sola, sino en que nosotros dejemos de hacerlo, dando fe de su paralelismo intelectual con el fonde del debate: “Cuando pedimos a los algoritmos que decidan por nosotros, corremos el riesgo de abdicar de nuestra humanidad”. Y, siguiendo con el guiño a Ortega del director de Retina, García Cantero, la filósofa citó también a al filósofo: “Un tigre no puede destigrarse, pero un hombre puede deshumanizarse, decía Ortega. Y si no actuamos bien con la IA corremos ese riesgo”.

La ética, insistió Cortina, debe actuar como brújula. “El bien común no es un lujo moral, sino una necesidad democrática. Si la IA no contribuye a ese bien común, lo pone en peligro”. Cortina defendió así que la tecnología puede ser una aliada formidable si se usa con propósito social y transparencia. “Estamos viviendo el eclipse de la razón comunicativa, cuando precisamente el diálogo —la palabra compartida— es lo que nos salva como especie”, concluyó.

La sostenibilidad como brújula

En el terreno de la sostenibilidad, la coordinadora de Esfera Climática (CREAF), Andrea Arnau, advirtió del coste oculto del progreso: “Los centros de datos se están construyendo en lugares con alto estrés hídrico, en países donde el calor y la sequía ya son un problema estructural. En España, eso es un cóctel peligroso”. Y recordó que la IA no solo consume energía; también la condiciona y, por tanto, debe usarse con responsabilidad.

Sin embargo, Arnau expuso cómo la misma tecnología que devora recursos puede ayudar a preservarlos: “La IA, en sectores como el energético, ya se emplea para detectar fugas de metano, prever incendios o ajustar el consumo energético de edificios con precisión. La IA puede ser la mejor herramienta ambiental si la orientamos con sensatez”.

En esa línea, el fundador y CEO de Eira, Miguel Alexandre Barreiro-Laredo, explicó que sus modelos permiten identificar infraestructuras urbanas inutilizadas para convertirlas en espacios sostenibles o resilientes ante crisis climáticas. “Nuestra tarea no es adaptarnos al cambio, sino diseñar las condiciones para resistirlo”, dijo. Para él, la sostenibilidad tecnológica empieza con un principio simple: saber de dónde vienen los datos y a quién benefician. Fomentar una trazabilidad con el objetivo de alcanzar la soñada transparencia que nos haga más libres con la tecnología, y no a la tecnología más libre de nosotros y nuestro bien común.

Brechas, sesgos y otros espejos rotos

La profesora de Filosofía Moral en la Universidad Autónoma de Madrid, Lucía Ortiz de Zárate, introdujo la conversación sobre género, raza y justicia social con una frase punzante: “La tecnología nunca ha sido neutra; cuando lo reconocemos, empieza la honestidad”. Desde una lectura ecofeminista, señaló la paradoja de una IA que busca optimizar el mundo mientras perpetúa dinámicas coloniales de extracción de recursos y datos. “Dentro de unas décadas, cuando los indicadores ecológicos y sociales nos devuelvan el espejo, será tarde para lamentarnos”, advirtió.

Por su parte, la profesora de la Universidad de Valencia, Elsa Simó-Soler, defendió la posibilidad de una “IA feminista” que corrija la invisibilidad histórica de quienes no encajan en el modelo dominante. “Los algoritmos aprenden de datos sesgados. Si esos datos excluyen, también excluirá la máquina. Pero si incorporamos perspectivas diversas, podemos construir una IA más justa”. Y añadió ejemplos de herramientas aplicadas a la reducción de sesgos en procesos judiciales o en sistemas de denuncia anónima para víctimas de violencia.

Simó-Soler resumió su pensamiento con una frase que bien podría aplicarse a un inabarcable rango de sectores: “No soy tecnoptimista, pero deseo que la conciencia humana y la velocidad tecnológica corran al mismo ritmo”.

IA e inclusión: el talento como brújula

La secretaria general y directora de Excelencia, Transformación e Igualdad en Fundación ONCE, Virginia Carcedo, abordó el papel de la IA en la inclusión desde una perspectiva laboral y administrativa. “La inteligencia artificial puede ser una gran aliada para la autonomía y la igualdad de oportunidades. No se trata solo de adaptar herramientas, sino de utilizarlas para identificar talentos y conectar a las personas con los trabajos más adecuados a sus capacidades”, afirmó.

Carcedo explicó cómo, desde la Fundación ONCE, se están desarrollando sistemas que analizan perfiles profesionales y ayudan a emparejar a personas con discapacidad con ofertas de empleo donde puedan desplegar su máximo potencial. “La IA puede hacer visibles las competencias que el mercado tradicional no detecta”, señaló. Además, destacó su utilidad en la administración pública, para simplificar trámites y facilitar el acceso a servicios sociales: “Un sistema que entiende el lenguaje natural y traduce formularios burocráticos en procesos accesibles no es solo una mejora técnica, es un acto de mejora social”.

En su intervención, subrayó finalmente la necesidad de combinar ética y eficiencia, asumiendo que la IA debe tener un corazón social, y que, si no sirve para incluir, entonces no sirve para avanzar. Aun aceptando que las personas deben asumir esta tecnología como un cambio ineludible, y recomendando que se produzca una adaptación que permita evitar la destrucción de empleo.

Salud: la inteligencia que salva vidas

El bloque dedicado a la salud se abrió con una certeza: la IA no solo está cambiando la medicina, sino que la está humanizando.La comisionada del PERTE para la Salud de Vanguardia, Raquel Yotti, explicó que las herramientas de inteligencia artificial pueden: “anticipar enfermedades, mejorar diagnósticos y liberar tiempo a los profesionales sanitarios para lo que realmente importa: escuchar al paciente”.

Yotti insistió en la necesidad de frenar la vorágine tecnológica para pensar en las personas: “Necesitamos que haya una parada para entender que falta tiempo de médico en la salud. Con la tecnología, esas tareas que no le son propias, que obstaculizan la mirada más humana del médico y su interacción con el paciente, pueden resolverse”. En su opinión, el reto no es tecnológico, sino organizativo: permitir que la IA descargue a los profesionales de labores mecánicas para devolverles el espacio del cuidado.

El fundador y Consejero Delegado de Quibim, Ángel Alberich-Bayarri, coincidió en que el momento actual es una oportunidad irrepetible. “España tiene una ventaja competitiva enorme por la centralización de sus datos sanitarios. Podemos crear algoritmos que sirvan como copilotos clínicos, detectando patologías en fases muy tempranas”. A lo que añadió: “Hemos desarrollado algoritmos capaces de detectar cánceres con mucha anticipación. Ya hay productos en marcha para el cribado del cáncer de próstata implantados en países como Reino Unido”.

Alberich-Bayarri recordó además el reciente conflicto en Andalucía, donde el exceso de carga sobre los radiólogos ha puesto en evidencia la utilidad de estas herramientas. “Los profesionales están sobrepasados, y con la IA podemos proporcionar un diagnóstico preliminar que se convierte en una pata de apoyo para los médicos”. Para él, la tecnología no sustituye, sino que acompaña, convirtiéndose en una extensión de la mirada clínica.

Tanto Yotti como Alberich-Bayarri coincidieron en que la salud es el ámbito donde la IA demuestra su faceta más noble: no sustituir lo humano, sino preservarlo. Una inteligencia que anticipa, para que los profesionales escuchen y salven personas.

Prosperidad: creatividad y crecimiento

En el ámbito de la prosperidad, el director de Data e IA en Iberia, Ferrán García Rigau, habló del cambio cultural que la aerolínea ha vivido al abrazar la inteligencia artificial. “Durante años centralizamos datos, pero el verdadero salto llegó cuando entendimos que no era una cuestión técnica, sino humana. La IA empodera al empleado cuando se usa con propósito”, afirmó. Iberia procesa más de 300.000 encuestas al año y, gracias a la IA, ahora extrae de ellas patrones de mejora casi en tiempo real. “El miedo desaparece con formación. Cuando un trabajador ve que la IA le ayuda, no la teme, la adopta”, aseguró García Rigau.

Por su parte, el mánager de Relaciones Institucionales y Políticas Públicas de Google Spain, Josetxo Soria Checa, recordó que la revolución tecnológica de la IA generativa corresponderá en el futuro cercano a alrededor del 8% del PIB nacional. “Estamos ante un cambio de era”, afirmó contundente. “No basta con innovar, hay que incluir”, dijo. Google ha anunciado la formación en IA de un millón de personas, priorizando el talento femenino y rural. “No habrá prosperidad si la inteligencia artificial solo pertenece a unos pocos”, declaró. Según Soria Checa, Google desea capitanear esa prosperidad, por ejemplo, proporcionando sus herramientas de IA a estudiantes españoles de forma gratuita, para que puedan ir adaptándose a las herramientas que condicionarán su futuro laboral.

Inversión, gobernanza y el pulso público

El presidente de Ineco, Sergio Vázquez Torrón, abrió este bloque con una advertencia serena: “La Administración debe ser prudente. Podemos experimentar con IA, pero de forma acotada y siempre garantizando la equidad en el servicio público”. Hablando de la autonomía estratégica, Vázquez Torrón aseguró que muchas veces tenemos la sensación de estar perdiendo una carrera, como si Europa: “sufriera una especie de FOMO”. Pero al presidente de Ineco le sobrevivía una pregunta: “¿hacia dónde va realmente esa carrera? A veces somos demasiado autocríticos con el futuro del continente europeo. Sin embargo, si cada uno de nosotros se preguntara dónde quiere que nazcan sus nietos, la mayoría, sin duda, responderíamos que en Europa. Por eso debemos reflexionar sobre qué carrera estamos corriendo y cuál creemos que estamos perdiendo”.

Vázquez Torrón insistió también en las dificultades que entraña la digitalización de la Administración Pública: “digitalizar o transformar la Administración Pública no es lo mismo que digitalizar o transformar digitalmente el Corte Inglés. La tolerancia al riesgo en la Administración Pública es mucho menos alta, porque al final los fallos son sistémicos y ponen en cuestión la credibilidad, el contrato social que la sustentan”, aseguró el presidente de Ineco. “Creo que los pasos que tiene que dar la Administración Pública están muy fijados en la planificación y han de ser muy firmes”, concluyó.

En una línea cercana, el director global de Desarrollo de Soluciones en Indra Group, Javier Muñoz Lagaron, profundizó en el aspecto legislativo: “Niego categóricamente la mayor”, aseguró. “Yo soy un firme creyente que la legislación ayuda y no entorpece realmente. Creo que el entorpecimiento muchas veces se usa como excusa para frenar algún tipo de innovación, pero no es así. La tecnología es buena o es mala, pero el uso que debemos hacer de ella es el correcto y, por lo tanto, los gobiernos deben defender esa parte”, declaró.

Muñoz Lagaron añadió que la IA ofrece una oportunidad inédita de cooperación europea: “España puede liderar una visión mediterránea del progreso, basada en la ética, la sostenibilidad y la colaboración. No en la velocidad”. Entrando en cuestiones más relacionadas con su empresa, Muñoz Lagaron aclaró que: “nosotros tuvimos que avanzar, ya desde el principio, con gran preocupación por todo el tema de la soberanía, especialmente en relación con la nube pública. No queremos ser, necesariamente, la inteligencia artificial más rápida ni la más potente; queremos ser la más confiable, y para eso hace falta legislación”. También defendió la necesidad de perfiles híbridos que comprendan tanto el código como el propósito social: “El futuro no será de los ingenieros ni de los filósofos, sino de quienes sepan pensar como ambos”.

Gobernanza y ciudadanía: aprender a llegar bien

A modo de sabroso colofón, y con una reiterada avalancha de ovaciones, el catedrático de Filosofía Política e investigador de Ikerbasque en la Universidad del País Vasco, director del Instituto de Gobernanza Democrática y profesor en el Instituto Europeo de Florencia, Daniel Innerarity, cerró la jornada con una apuesta por la lentitud y la reflexión. Reciente autor del ambicioso ensayo: Una Teoría Crítica de la Inteligencia Artificial (Galaxia Gutenberg, 2025), el filósofo declaró que, a pesar de su prisma crítico, él es insobornablemente optimista. Lo cual, no obstante, no le impidió afirmar que existen espejismos tecnológicos preocupantes. “Me llama la atención muy poderosamente el hecho de que la gente que lidera en estos momentos en el mundo el optimismo tecnológico desaforado —estoy pensando en Musk, en Thiel, Zuckerberg, Altman, etc.— curiosamente, coinciden que son los más escépticos en relación con la democracia”, aseguró el filósofo. Todos ellos han decretado la muerte de la democracia y son unos crédulos absolutos en la capacidad de la tecnología de resolver problemas políticos. Lo estaban pensando tecnológicamente, como si el problema de identificar qué es el odio, qué es una verdadera o una falsa información, fuera un problema de tecnología y no de lo que es, que es un problema filosófico”.

Para Innerarity, esta creencia revela un peligro profundo: el de confiar en que el algoritmo sustituya el debate, la deliberación o la responsabilidad compartida. “La democracia es el arte de la lentitud. No puede acelerarse al ritmo del algoritmo”, añadió, recordando que los sistemas de decisión colectiva no se pueden reducir a estadísticas o a cajas negras. De hecho, señaló que la inteligencia artificial puede reforzar la democracia “siempre que no la sustituya”, y que la gobernanza digital debe conservar la capacidad de incomodar, de formular preguntas, de amar la duda.

Una guinda reflexiva, la de Innerarity, que nos invita a reflexionar sobre cuál es el ritmo que deseamos como sociedad. A aprender a definir si queremos que quienes nos dirigen marquen un estrés vital que nos haga caer en la paranoia, la úlcera existencial y el desencanto, o si podemos enfrentarnos a ellos y reclamar nuestra justa parte de humanidad, empatía y cuidado, que debería ser la brújula ética de cualquiera que esté a los mandos, sin importar la máquina que dirija.