El potencial de la Inteligencia Artificial está en sus límites

Podemos pensar en una inteligencia artificial que se construya desde el propósito y que genere aplicaciones y usos que nos conduzcan hacia una sociedad mejor.

Da miedo empezar a escribir un artículo que junte las palabras “inteligencia” y “artificial”. Uno siente la presión por hablar de la revolución que se avecina, del fin del empleo o de un mundo gobernado por robots. Parece que solo se puede hablar de ella desde la grandilocuencia de profecías que nunca acaban por cumplirse. Así que prefiero avisar antes de que esto suceda: este texto es un jarro de agua fría y, a la vez, una promesa hacia el delirio. Un jarro de agua fría porque habla de la inteligencia artificial desde sus límites.  Y un delirio entendido como una forma radical de imaginar futuros imposibles que se hagan realidad desde el compromiso de las personas y organizaciones que creemos en un mundo más justo y en una tecnología que contribuya a crearlo.

Primero desmitifiquemos algo, los límites no son malos. Si son autoimpuestos son, al contrario, una forma de pintar el campo de juego que nos prepara para la acción y nos permite dirigir nuestros esfuerzos hacia un futuro deseable. En el mundo de la tecnología este paso es imprescindible porque, por mucho que ciertos tecnoptimistas lo repitan, la tecnología no es neutral. Desde el momento en que tiene la capacidad de condicionar el comportamiento humano, genera ganadores y perdedores, reproduce sesgos y tiende a reforzar y apuntalar las estructuras de poder. Y la IA no solo no es una excepción, es la quintaesencia de esta definición. Su potencial transformador, para bien y para mal, nos obliga a repensar los límites que deben condicionar tanto su diseño como sus futuras aplicaciones.

Para ello, lo primero es tomar consciencia de los sesgos que arrastra: si el mundo es ya de por sí un lugar injusto, los datos que lo registran son una reproducción aún más dispar de todas nuestras desigualdades. Lo segundo es pensar la IA desde la ética de los cuidados: por muy atractivo que parezca la automatización de algunos procesos no debemos olvidar que ciertos servicios se basan en la confianza y en la empatía, valores que no se sustituyen por la eficiencia de un algoritmo.  Lo tercero es concebir el diseño desde las responsabilidades éticas y morales: generar aplicaciones y servicios autónomos no debe eximir de la responsabilidad de las acciones y las consecuencias de sus actos.

Y partiendo desde aquí, entonces sí, se puede construir desde el delirio. Podemos pensar en una inteligencia artificial que se construya desde el propósito y que genere aplicaciones y usos que nos conduzcan hacia una sociedad mejor. Podemos imaginar soluciones que automaticen diagnósticos de enfermedades olvidadas o que nos ayuden a personalizar los tratamientos a cada paciente. Podemos pensar en sistemas que ayuden a personas migrantes a acceder y lidiar mejor con los servicios de los países a los que llegan. Podemos pensar en soluciones que faciliten el acceso a la educación a personas con discapacidad o dificultades de aprendizaje.

El futuro de la inteligencia artificial es tan incierto como lo es el futuro de nuestras sociedades. De nuestra capacidad de imponer normas y criterios éticos que marquen el camino, dependerá que la tecnología se convierta en una fuerza para el bien o en un impulso más en la dirección equivocada. Y todo parte de la misma energía que ha guiado siempre a las sociedades hacia el progreso: no de la capacidad del ser humano de alcanzar desarrollos imposibles, sino de saber dónde situar sus límites. El mundo no será mejor porque haya más Inteligencia Artificial. Lo será porque esté bien utilizada.

*Borja Monreal Gainza es cofundador de SIC4Change

** Este artículo recoge reflexiones de un taller colectivo desarrollado en el Tech4humanity organizado por BBK y Ashoka en Bilbao los días 11,12 y 13 de marzo.

Más Información