Nos rodea, a veces nos hace la vida más fácil y, lo más importante, está empezando a estar involucrada en prácticamente todos los aspectos de nuestra vida. La inteligencia artificial (IA), descrita por primera vez en 1956, ha avanzado tanto en los últimos años que algunos de los mayores expertos del campo ya comparan su impacto con el de la electricidad y con el del mismísimo fuego. “Lo veo como la tecnología más profunda que la humanidad desarrollará y trabajará. Si piensas en el fuego, en la electricidad o en Internet, es así. Pero creo que es incluso más profunda”, afirmó el CEO de Google y Alphabet, Sundar Pichai, en una entrevista con la BBC el año pasado.
Ante el auge de inversiones, avances y servicios de inteligencia artificial que aparecen constantemente, es poco probable que no haya oído hablar de ella. Lo que tal vez no sepa es que ya es prácticamente imposible que viva su día a día sin que le influya de una u otra forma. Dado que su papel en la vida de todos nosotros es cada vez más relevante, merece la pena detenerse un momento a intentar entender qué se esconde tras las dos grandes iniciales del sector tecnológico, las siglas por excelencia del nuevo mundo digital.
Por mucho que la IA se haya colado entre nuestro vocabulario habitual, describirla es más difícil de lo que parece. No solo no existe una definición estándar, sino que esta evoluciona a medida que lo hace la propia tecnología. En un intento por explicar con palabras este subcampo de la computación, el Centro Común de Investigación de la Comisión Europea (CE) ha estudiado 55 definiciones del término, elaboradas entre 1955 y 2019, y concluye que la mejor aproximación fue la que propuso el Grupo de Expertos de Alto Nivel en Inteligencia Artificial de la CE en 2019.
Su definición dice así: “Los sistemas de inteligencia artificial son sistemas de software (y posiblemente también de hardware) diseñados por humanos que, dado un objetivo complejo, actúan en la dimensión física o digital percibiendo su entorno mediante la adquisición de datos, interpretando los datos estructurados o no estructurados recogidos, razonando sobre el conocimiento, o procesando la información, derivada de estos datos y decidiendo la mejor acción o acciones a tomar para lograr el objetivo dado. Los sistemas de IA pueden utilizar reglas simbólicas o aprender un modelo numérico, y también pueden adaptar su comportamiento analizando cómo se ve afectado el entorno por sus acciones anteriores”.
Tras esta serie de tecnicismos, los responsables del análisis plantean cuatro características comunes en todas las definiciones de inteligencia artificial.
- Percepción del entorno, incluida la consideración de la complejidad del mundo real.
- Procesamiento de la información: recogida e interpretación de datos.
- Toma de decisiones (incluido el razonamiento y el aprendizaje): realización de acciones, ejecución de tareas (incluida la adaptación, la reacción a los cambios del entorno) con cierto nivel de autonomía.
- Consecución de objetivos específicos: considerada como la razón última de los sistemas de IA.
LA IA YA MUEVE EL MUNDO
Para aterrizar estos conceptos, un ilustrativo ejemplo de inteligencia artificial podría ser el de un coche autónomo. A la hora de percibir el entorno, el vehículo está equipado con distintos tipos de sensores y cámaras y está conectado a otras fuentes de información, como por ejemplo meteorológica o del tráfico, que le permiten saber dónde está, qué tiene alrededor y qué está pasando. Llegado el momento de procesar e interpretar la información, el coche no solo debe ser capaz de distinguir el color de un semáforo, sino también, qué significa cada uno y qué debe hacer en cada caso. Posteriormente, la toma de decisiones depende de lo que sucede en el entorno en cada instante. Por ejemplo, aunque el semáforo luzca verde, tendría que decidir detenerse si detecta un peatón que no debería estar cruzando. Por último, su objetivo específico sería llegar a su destino respetando las normas del tráfico y evitando cualquier tipo de accidente.
Pero inteligencia artificial también podría ser un sistema de mantenimiento predictivo que, al identificar una serie de datos anómalos en el funcionamiento de un aerogenerador, predice que está a punto de fallar. O un programa bancario capaz de identificar movimientos atípicos que indicarían un robo o suplantación de identidad. Y, por supuesto, también es el algoritmo que identifica automáticamente quién aparece en su nueva foto de Facebook, el sistema de sugerencias de búsqueda de Google, el programa de IBM que venció al ajedrez a Gary Kaspárov, y la herramienta de recomendación de contenidos en Netflix y de productos de Amazon, por citar algunos de los más famosos.
Todos ellos hacen básicamente lo mismo: reciben datos, los analizan, encuentran patrones y extraen conclusiones o toman decisiones de acuerdo con un objetivo dado, ya sea evitar el fallo de una máquina, un robo o un atropello, ganar a un juego, diagnosticar una enfermedad o fomentar el tiempo de permanencia de un usuario en una plataforma. Al final, todo se resume en una predicción, predecir que algo va a fallar, que se va a producir un accidente, cuál es la mejor jugada o qué es lo que el usuario está buscando, qué puede necesitar inminentemente o qué tiene intención de hacer.
En el ámbito financiero, la capacidad de la IA para analizar enormes volúmenes de datos y usarlos para hacer predicciones puede convertirse en un beneficio para los clientes una vez que el sistema ha aprendido sus hábitos individuales. Es el caso del Banco Santander, cuyos algoritmos ya le permiten enviar recomendaciones a sus usuarios para ayudarles a gestionar sus finanzas mediante, por ejemplo, notificaciones predictivas que avisan de los próximos movimientos o recibos que se van a ejecutar en breve.
Las técnicas y tipos de algoritmos para lograr que las máquinas hagan tales predicciones son casi tan amplias como la propia definición de la inteligencia artificial. Pero si hay una rama que destaca por encima de todas y que ha sido responsable de la mayoría de las grandes hazañas recientes, esa es el aprendizaje automático. Este enfoque consiste en lograr que los ordenadores aprendan tareas por sí mismos sin necesidad de programarlos explícitamente para ello y sigan aprendiendo y mejorando a medida que reciben más datos y se enfrentan a nuevas situaciones.
Y, como no podía ser de otra forma, los tipos de datos involucrados en este proceso también varían enormemente. La IA puede trabajar con prácticamente cualquier cosa que pueda digitalizarse, ya sean caracteres alfanuméricos, lenguaje natural hablado y escrito en distintos idiomas, imágenes estáticas y en movimiento, sonidos, temperaturas y cualquier cosa que pueda ser captada por un sensor, una cámara, un micrófono, un ratón, un teclado o un dispositivo táctil. Así es como han nacido los traductores automáticos de última generación, los sistemas que diagnostican enfermedades a partir de imágenes médicas como radiografías, y los programas que producen imágenes, audios y vídeos falsos, pero hiperrealistas.
Estos ejemplos dejan claro que la inteligencia artificial es cada día más capaz de asumir tareas hasta ahora reservadas exclusivamente a la inteligencia humana, como el análisis de los mercados financieros, la selección de la jurisprudencia más adecuada para un procedimiento legal y la idoneidad de los candidatos a un proceso de selección. Sus habilidades para hacer todas estas cosas, a veces de forma mucho más eficiente que las personas, la han situado en el punto de mira del mundo laboral. Como ya sucediera con sus antecesoras, las máquinas tontas de la Primera Revolución Industrial y las siguientes, la IA se ha convertido en protagonista, pero también en amenaza, de la Cuarta Revolución Industrial, y es acusada constantemente de destruir empleos y poner en riesgo las formas de subsistencia de los humanos.
Eso sí, que un ordenador sea capaz de analizar cantidades de datos inabordables por un humano y detectar patrones imperceptibles por nuestros ojos, y todo sin cansarse, quejarse ni pedir vacaciones, no significa que la inteligencia artificial lo haga todo mejor que nosotros. Uno de los grandes problemas de la IA son sus resultados sesgados, generalmente provocados por sesgos inherentes en los propios datos de entrenamiento. En estos casos, la inteligencia artificial puede detectar patrones muy consistentes que, sin embargo, no representan para nada la realidad o replican sesgos propios de la sociedad contra los que intentamos luchar.
Estos errores suelen deberse tanto a la mala calidad de los datos de entrenamiento como al hecho de que los algoritmos de IA suelen funcionar como una caja negra en la que es imposible saber qué está pasando. Para solucionar ambos problemas, los investigadores pueden trabajar con conjuntos de datos creados artificialmente o manipulando el algoritmo a la fuerza para evitar dichos sesgos. Pero nada de esto sirve ante quienes utilizan sistemas de IA con fines cuestionables o que directamente amenazan los derechos humanos. Por eso, la ética para la IA ya se ha convertido en un campo de estudio, trabajo y activismo en sí mismo, mientras que gobiernos de todo el mundo se esfuerzan por entender la tecnología para limitar sus usos perniciosos sin frenar la innovación.
ROBÓTICA ‘VERSUS’ IA
Tras toda esta ristra de ejemplos y explicaciones, probablemente se habrá dado cuenta de que la inteligencia artificial poco tiene que ver con la imagen popularizada por el cine y la literatura en la que la tecnología siempre tiene forma de robot y, de una forma u otra, acaba alzándose contra los humanos. Nada más lejos de la realidad, ya que, si se fija, a excepción del coche autónomo, todos los ejemplos mencionados se refieren a programas de ordenador incapaces de manipular y desenvolverse por el mundo físico. De hecho, aunque la IA suele ser imaginada con forma robótica, en realidad se trata de conceptos diferentes. Mientras que la inteligencia artificial podría ser vista como un cerebro, el robot representaría un cuerpo. Y resulta que ni todos los cerebros necesitan un cuerpo, ni todos los cuerpos necesitan un cerebro.
Los robots llevan existiendo y quitándonos el empleo desde que General Motors instaló la primera unidad del modelo Unimate en 1961. Pero, a diferencia de Terminator y los algoritmos de Google, aquel brazo robótico era de todo menos inteligente. Básicamente era una máquina que realizaba tareas de forma autónoma, pero únicamente gracias a la programación y la repetición. Es decir, Unimate estaba programado para hacer los mismos movimientos una y otra vez, en la misma dirección, durante el mismo tiempo, con la misma fuerza y en el mismo ángulo, independientemente de lo que sucediera a su alrededor. Pobre del compañero que osara cruzarse en su camino, pues su falta de sensores y de toma decisiones en tiempo real haría que el robot siguiera levantando, agarrando y montando, pasara lo que pasara por en medio.
Frente a este antepasado, los robots industriales actuales suelen estar entrenados para detenerse en seco en cuanto detectan que algo no va como debería y, aun así, a veces siguen produciendo accidentes. Esto se debe a que manejarse por el espacio físico y responder adecuadamente a la infinita e impredecible variabilidad del mundo real puede resultar endiabladamente complicado. Por eso, mientras los cerebros algorítmicos encerrados en ordenadores dominan cada vez más la economía y el mercado laboral, los coches autónomos siguen relegados a ejemplos piloto y el sueño de un mayordomo robótico capaz de limpiar la casa no ha avanzado más allá de una aspiradora que se desliza por el suelo chocándose sin parar.
Al igual que pasa con algunos experimentos científicos, imposibles de replicar fuera las condiciones de laboratorio, trasladar las habilidades de un cerebro virtual a comandos para un cuerpo físico se enfrenta a infinidad de retos alejadísimos del cero absoluto en condiciones de vacío. Afortunadamente, el entrenamiento de la inteligencia artificial en entornos virtuales permite otras ventajas, como acelerar el tiempo para que una IA aprenda durante siglos en periodos de tiempo que resultan infinitamente menores en el mundo físico. Además, lo que aprende un robot puede ser transferido a otro o ambos pueden compartir conocimientos a través de un cerebro único en la nube.
Sea como fuere, ni la robótica ni la inteligencia artificial tienen pinta de estar desapareciendo de nuestras vidas, sino todo lo contrario. Para sus mayores defensores, sus avances prometen un futuro brillante y libre de tareas repetitivas, en las que los humanos podremos dedicarnos a cosas más creativas y sin esfuerzo físico. Sin embargo, sus riesgos nos obligan a prestar atención para impedir que las máquinas o quienes las controlan decidan jugar únicamente en su propio beneficio. Porque, si la IA va a tener un impacto mayor que el fuego, imagínese qué pasaría si solo los más poderosos tuvieran acceso a los mecheros.
Sobre la firma
Periodista tecnológica con base en ciencias. Coordinadora editorial de 'Retina'. Más de 12 años de experiencia en medios nacionales e internacionales como la edición en español de 'MIT Technology Review', 'Público', 'Muy Interesante' y 'El Español'.