Palabra de algoritmo, amén. Tres frenos contra la IA que parece humana

A medida que las máquinas se vuelven más potentes y se integran silenciosamente en la toma de decisiones importantes resulta imprescindible que entendamos sus sesgos y cómo funcionan, qué impacto tienen en nuestras vidas y cómo debemos regularlas en lugar de limitarnos a confiar ciegamente en ellas. Nuestro futuro como sociedad ética, justa y próspera depende de ello, diga lo que diga ChatGPT.

Si un loro le dijera que tome una buena dosis de arsénico para aliviar su tos, ¿seguiría su recomendación? Probablemente no. Por muy humano y convincente que suene, usted es consciente de que no es más que un animal que imita a la perfección el habla humana, pero que carece de cualquier tipo de comprensión de lo que dice. Además, es probable que sepa de sobra que el arsénico es altamente tóxico, lo que le hará dudar del consejo, por real que suene. Y, si aun así decidiera confiar en él, una última barrera de contención le impediría cometer tal aberración: la regulación.

Estos tres factores (comprender cómo surgen los consejos del loro y qué supone seguirlos, entender la información que contienen para poder cuestionarla y someterse a las leyes vigentes), resultan obvios en el caso de la dialéctica loruna. Pero si sustituimos al pájaro por sistemas de inteligencia artificial (IA), la situación se vuelve bastante más peliaguda. “Los humanos tendemos a confiar en las cosas que hablan como nosotros, pero los grandes modelos de lenguaje vienen a romper la presunción de veracidad que atribuíamos a una expresión coherente, como ya hizo Internet con la letra impresa o la imprenta con la escritura sagrada”, asevera el catedrático emérito de Sociología y director del Máster Avanzado en Innovación y Transformación Educativa en la Universidad Complutense de Madrid, Mariano Fernández Enguita.

A pesar de que estos grandes modelos de lenguaje como el recientísimo GPT-4 ya hace tiempo que se comparan con loros por su incapacidad de entender lo que dicen, parece que a los humanos nos cuesta cada vez más poner en entredicho a la todopoderosa IA. Además de los algoritmos parlantes, existen infinidad de ejemplos de sistemas que ya se están utilizando en el proceso de toma decisiones de todo tipo, y solo vamos descubriendo sus debilidades y amenazas a medida que surgen los escándalos por sus decisiones injustas o discriminatorias.

No es lo mismo usar inteligencia artificial para registrar las matrículas de los coches que circulan por una carretera que para decidir si un presunto delincuente tiene derecho a libertad condicional. “La IA lleva décadas automatizando tareas, el problema es que ahora se está empezando a usar para tomar decisiones, ese es un espacio inherentemente humano y de ahí el riesgo”, advierte la profesora adjunta del Departamento de Operaciones, Innovación y Ciencia de Datos y directora del doble grado en Dirección de Empresas e IA para los Negocios de Esade, Irene Unceta.

Para Enguita, esta es la razón por la que “la cacareada sustitución de los radiólogos por algoritmos no ha sucedido, los algoritmos son muy buenos y muy rápidos, pero también se equivocan”. Puede que el sector médico esté siendo más cauto a la hora de fiarse de las decisiones de la IA, pero “los algoritmos pueden deducir nuestra orientación sexual, nuestra ideología y estado de salud sin que seamos conscientes, también deciden qué productos o noticias se nos muestran, así como si nos contratan, despiden o promocionan, si obtenemos un préstamo o un seguro, entre otras muchas cosas”, denuncia la catedrática de Tecnología y Regulación del Instituto Oxford de Internet de la Universidad de Oxford (Reino Unido), Sandra Wachter.

¿Qué futuro nos depara una tecnología cuyo avance es tan imparable e indiscriminado? ¿Llegaremos a un 2030 en el que la opaca toma de decisiones algorítmica de aspecto hiperrealista y diseñada en función de la agenda de tres o cuatro empresas domine todos los aspectos de nuestra vida? En este contexto, resulta urgente que empecemos a aplicar a la IA las tres mismas barreras de contención que aplicaríamos a los consejos del loro: ética, razonamiento y legalidad.

ÉTICA Y TRANSPARENCIA

Por mucho que haya algoritmos demostradamente superiores en tareas muy específicas, como el ajedrez, la cosa se complica en situaciones del mundo real, con su contexto y sus distintas interpretaciones en función de la cultura, la ética y la situación particular de cada individuo y de cada sociedad. Por eso, Unceta afirma: “La toma de decisiones se puede automatizar, la pregunta es si se debe hacer. Delegar en la IA pensando que va a tomar mejores decisiones que los humanos es un completo error. El modelo solo conoce aquello que le trasladamos”.

¿Preferiría un mal diagnóstico por parte de un médico o de una máquina? ¿Preferiría ser atropellado por un mal conductor o por la programación de un coche automático? El famoso dilema del tranvía lleva tiempo siendo utilizado por el MIT para entender las distintas preferencias éticas de la ciudadanía. ¿Vale más la vida del pasajero o la de un incauto transeúnte? ¿La de una persona mayor o la de un niño? El problema es que las respuestas dependen de multitud de variables que, además, pueden cambiar en función del momento vital de cada individuo. Por eso, “estos modelos no pueden tener voluntad universal, personas diferentes tomarían decisiones diferentes”, opina Unceta. Y añade que el experimento del MIT “no aspira a concluir qué es mejor y peor sino a poner sobre la mesa que el debate no está resuelto”.

Mientras intentamos dar respuesta a estos dilemas casi existenciales, los fallos de la IA, a veces de extrema gravedad, siguen esparciéndose por el mundo sin control, mientras las big tech se cubren las espaldas como pueden. Ya no hay lanzamiento que no incluya algún descargo de responsabilidad, como el de esta reciente investigación de Microsoft sobre GPT-4 en el ámbito sanitario: “Teniendo en cuenta la posibilidad de errores y las dificultades para evaluar su funcionamiento en el mundo real, es fundamental actuar con prudencia, desarrollar y evaluar los usos adecuados y buscar innovaciones técnicas para optimizar las ventajas y mitigar los riesgos”.

Resulta curioso que, con esas “innovaciones técnicas”, el gigante en realidad propone remendar los problemas de su tecnología con más tecnología. Pero, como ya nos advirtió el año pasado la profesora de Ética Tecnológica de la Universidad de Notre Dame (EEUU) y antigua asesora de identidad digital para el Banco Mundial y la Comisión Europea, Elizabeth Renieris, “no podemos afrontar los retos digitales con el mismo tecnosolucionismo y optimismo acrítico que nos ha fallado en el pasado y creyendo que los problemas de la tecnología se solucionan con más tecnología”.

Unceta defiende que “la lógica detrás del modelo debe ser razonablemente transparente”. Se refiere a que cuanto más capaces se vuelven algoritmos de IA, mayor es su complejidad y la imposibilidad de los humanos de entender por qué y cómo alcanza sus conclusiones, convirtiendo a los modelos en cajas negras cuyo razonamiento resulta imposible de comprender. Frente a esta opción, se declara “defensora de los modelos explicables”, y sentencia: “Enrocarse en los modelos caja negra porque son mejores es un error porque muchas veces, el rendimiento extra que aportan es ínfimo frente a la complejidad que añaden”.

Este punto de vista se vuelve especialmente relevante a medida que, en su carrera por lanzar y comercializar los mejores modelos, las big tech cada vez ocultan más información sobre ellos. “A diferencia de sus versiones anteriores, OpenAI no ha revelado nada sobre cómo construyó GPT-4: ni los datos ni la potencia de cálculo ni las técnicas de entrenamiento”, señaló MIT Technology Review, tras una entrevista en exclusiva con los creadores una hora después del lanzamiento.

PENSAMIENTO CRÍTICO

“El ordenador dice que es usted”, sentenció el policía. Daba igual que claramente Robert Williams no fuera la persona que aparecía robando relojes en el video de seguridad de una tienda, la herramienta de reconocimiento facial del Departamento de Policía de Míchigan (EEUU) le había señalado a él y no había más que hablar. Palabra de algoritmo, amén. Cual escena sacada de 1984, la injusta detención de Williams en 2020 por el mal resultado de un algoritmo cuya decisión no fue cuestionada por la autoridad representa el epítome más grave del problema de poner a la inteligencia artificial a los mandos de todo tipo de cosas.

A pesar de que las grandes tecnológicas suelen defender sus productos alegando que siempre debe haber un humano entre la IA y la decisión final, para Unceta, este tipo de escándalos “demuestran que el hecho de que haya una persona en medio tampoco es garantía de nada”. Y es que, además del problema ético que la toma de decisiones algorítmicas plantea por sí sola y su falta de transparencia, la experta advierte del “gran gap entre las personas que diseñan los modelos y las que los utilizan”.

La debilidad de las decisiones algorítmicas a veces salta a la vista, como cuando algunos usuarios fueron capaces de manipular a ChatGPT para que afirmara que 2+2=5. Por muy humana que suene su respuesta, cualquiera que sepa sumar identificará el fallo fácilmente. Pero ¿qué pasa cuando el trabajador que debe tomar la decisión final a partir de la predicción del algoritmo no entiende de dónde sale la conclusión de la inteligencia artificial o, como en el caso de Williams ni siquiera se molesta en cuestionarla?

“Que haya una persona en medio no asegura que ejerza el papel que debe ejercer. La pregunta es si el humano está capacitado para entender cómo funciona el modelo, por qué da el resultado que da y si es correcto”, responde la experta de Esade. Entonces ¿cómo podríamos asegurar que el humano a los mandos de la decisión final tenga todas las herramientas para poder velar por nuestros derechos y libertades en lugar de por los designios de una inteligencia artificial diseñada con fines comerciales?

“Estos profesionales han de contar con las competencias necesarias para comprender y contrastar la fiabilidad y funcionamiento del algoritmo y cómo toman las decisiones, y tener un conocimiento profundo de los datos de entrenamiento utilizados, incluyendo la posibilidad de sesgos y prejuicios”, responde el director del Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado (INTEF), Julio Albalad. O, como resume Enguita, “necesitamos inteligencia humana que contrapese al algoritmo”.

Para Albalad, esta situación “no es nada nueva, los inventos siempre han revolucionado nuestra sociedad y siempre hemos encontrado la forma de sacarle provecho a estos cambios”. Para ello, considera que “disciplinas como la filosofía y la ética tienen un papel fundamental en la formación de ciudadanos conscientes y responsables”. Y añade: “Nos ayudan a reflexionar sobre cuestiones como la justicia, la igualdad, la privacidad, la libertad de expresión, la responsabilidad social y otros valores fundamentales que deben guiar nuestras acciones en el mundo digital”.

LEYES Y MORATORIAS

Este tipo de debates no solo deben guiarnos como individuos, también son la base para desarrollar una legislación adecuada que equilibre la innovación y el avance tecnológico con la protección de nuestros derechos, nuestra seguridad y nuestro futuro. El marco regulatorio se vuelve imprescindible si tenemos en cuenta que ya hay programas que permiten monitorizar las páginas que consultan los empleados, hacer grabaciones de sus pantallas y hasta un registro de teclas, como nos contó hace poco nuestra compañera Alejandra de la Fuente.

Para los riders, el algoritmo es un oráculo: no saben cuál es, cómo se ha entrenado y ni por qué toman sus decisiones. No saben si rechazar un encargo es positivo o negativo, si es mejor aceptar dos seguidos o cogerlos a determinadas horas, lo que les quita autonomía y libertad”, lamenta Unceta. ¿Deberíamos prohibirlos todos? Enguita responde: “El problema es que hay algoritmos y algoritmos. Si uno va a calcular mi impuesto sobre la renta, con datos contrastados y normas conocidas, adelante; si pretende deducir por mis rasgos que soy un futuro delincuente, mejor no”.

Con esta coyuntura en mente, la propuesta de la Comisión Europea (CE) para la futura directiva sobre inteligencia artificial divide las aplicaciones y sus requisitos en función de su riesgo sobre las personas. En la categoría de “riesgo inadmisible”, que directamente prohíbe su uso, el borrador incluye la “puntuación social por parte de los Gobiernos [como el que ya se usa en China], la explotación de los puntos débiles de los niños, el uso de técnicas subliminales y, salvo contadas excepciones, determinados sistemas de identificación biométrica remota en directo en espacios públicos con fines policiales”.

Este último punto podría dar a entender que Europa está cerca de impedir los usos más delicados de los algoritmos de reconocimiento facial. Sin embargo, esas “contadas excepciones” son en realidad la mayoría, puesto que la prohibición solo sería válida para usos en directo, abriendo la veda a cualquier aplicación que no actúe en tiempo real. Afortunadamente, la toma de decisiones algorítmica relacionada con las imágenes, como es el caso la vigilancia predictiva, resulta tan delicada que se ha convertido en uno de los principales focos del activismo contra el avance indiscriminado de la IA.

Ante flagrantes casos como el de Williams, en mayo de 2021, 40 grupos activistas enviaron una carta abierta para exigir una prohibición permanente del uso del software de reconocimiento facial de Amazon, Rekognition, por parte de la policía estadounidense. Al final, el gigante claudicó e impuso una moratoria a su producto, tal y como habían hecho IBM y Microsoft un año antes con sus respectivos sistemas. La jugada les salió bastante bien, ya que su moratoria autoimpuesta favoreció su buena imagen de cara a la galería sin acarrear grandes pérdidas, ya que estos sistemas no destacan entre sus principales fuentes de beneficios.

Mientras tanto, otra reciente propuesta de moratoria, y que también tiene más tintes de márketing que prácticos, podría estar a punto de dividir a toda la industria en dos. Bajo la premisa de que “los sistemas de inteligencia artificial pueden suponer un profundo riesgo para la sociedad y la humanidad” y de que “no se están desarrollando con el nivel de planificación y cuidado adecuado” (cosa que es cierta), cerca de 1.000 profesionales del ramo firmaron una carta a finales de marzo para pedir una pausa de seis meses en todas las investigaciones relacionadas con la IA. A priori suena bonito, pero centrarse en los inciertos riesgos apocalípticos podría distraernos de los retos reales a los que ya nos estamos enfrentando.

Los peligros actuales están en los sistemas que ya existen, en sus sesgos, en su falta de transparencia, en nuestra escasa capacidad para entenderlos y cuestionarlos, y en el ritmo increíblemente lento al que avanzan los debates regulatorios y éticos serios. Son todas estas situaciones las que deberían hacer que empecemos a preocuparnos por un futuro inminente que hasta hace poco solo era posible en la novela de Orwell o en países donde la libertad y la transparencia brillan por su ausencia. O nos ponemos las pilas como sociedad, o puede que algún día, no dentro de mucho, una IA nos diga que bebamos arsénico y no haya nadie capaz de cuestionárselo.

*‘200 millones de segundos’ es un proyecto de Esade y ‘Retina’ para entender algunos de los cambios tecnológicos más importantes del presente, como la inteligencia artificial y la computación cuántica, y el impacto que tendrán en la vida, la economía y la sociedad de aquí a 2030.

Sobre la firma

Marta del Amo

Periodista tecnológica con base en ciencias. Coordinadora editorial de 'Retina'. Más de 12 años de experiencia en medios nacionales e internacionales como la edición en español de 'MIT Technology Review', 'Público', 'Muy Interesante' y 'El Español'.

Más Información