Me comentaba un investigador del CSIC, con tres décadas a sus espaldas en el campo de la inteligencia artificial, que necesitaría millones de euros en financiación para replicar un paper de DeepMind (subsidiaria de Google). Hubo un momento en que universidades y centros de investigación marcaban el paso en el desarrollo de la inteligencia artificial. Ya no es así.
En los últimos años las grandes tecnológicas han incrementado exponencialmente la inversión. Y el desequilibrio de recursos entre el sector privado y la academia es cada vez mayor. En 2010, las compañías privadas poseían solo el 11% de los modelos más potentes de IA. Una década más tarde ya estaban en sus manos el 96% de los grandes modelos de IA.
El abismo que se abre entre estos mundos, que desde siempre han colaborado en la investigación de la IA, tiene consecuencias. Al mencionado investigador del CSIC le quedaba la resignación. Sin esos millones de euros en recursos, sobre todo de cómputo, no tiene otra opción que creerse a pies juntillas los resultados expuestos por DeepMind. No puede replicar el experimento y comprobarlo. Pero hay más. Cuanto mayor es el desequilibrio más dificil lo tienen las universidades para contar con las herramientas necesarias para auditar los trabajos de las empresas, en busca de sesgos o riesgos potenciales.
En este escenario, cada vez hay que depositar más confianza en que las empresas tengan sus propias autolimitaciones a la hora de desarrollar sus IAs. Especialmente en un entorno que aún no está del todo regulado, pues el reglamento de IA de la Unión Europea entrará en vigor de forma progresiva a lo largo de dos años. Y esto en Europa, en otras partes del mundo la legislación está aún verde.
La enorme inyección de capital que se permiten las grandes tecnológicas en IA es también un imán para el talento. La fuga de cerebros desde las universidades a las compañías ha sido constante en los últimos años. Los casos más sonados son los de los grandes capos. Yann LeCun, catedrático de la Universidad de Nueva York y especialista en aprendizaje profundo, dirige el laboratorio de IA de Meta. Geoffrey Hinton, pionero en el campo de las redes neuronales desde su puesto en la Universidad de Toronto, condujo la investigación en IA para Google durante una década hasta que renunció aludiendo a los riesgos potenciales de la tecnología que había contribuido a desarrollar.
Más allá de los grandes nombres, hoy existe toda una generación de investigadores tentados por los sueldos de las empresas. Alrededor del 70% de los doctorados en inteligencia artificial recalan en el sector privado, cuando en 2004 solo eran un 21%. Desde 2006 no crece el número de contratados en la academia, mientras que la empresa ha multiplicado por ocho la captación de graduados, según cifras de un estudio de científicos del MIT y Virginia Tech.
Esta migración hacia la empresa privada deja menos mentes brillantes en la academia para enseñar a los futuros investigadores. Y, desde luego, tiene un impacto en la cantidad de investigación que sale de las universidades y de las compañías. En la edición de 2019 de la conferencia NeurIPS, una de las más prestigiosas en IA, Google llevó 167 papers en comparación con los 82 que presentaba la Universidad de Stanford.
Esta incapacidad de la academia frente al músculo de las grandes tecnológicas moldea la investigación que se hace en inteligencia artificial. Son las empresas quienes establecen su agenda. Los problemas a resolver, los experimentos, las áreas en las que se profundiza están marcados por los intereses comerciales del sector privado. Y esto no solo se impone en las compañías. Es muy difícil sustraerse de la tendencia mayoritaria, así que se corre el riesgo de que muchos investigadores de universidades se vean arrastrados a explorar los asuntos que más interesan a las empresas.
Aquí el peligro está en que se deje de lado una parte de la investigación de IA que no es lucrativa pero que tiene un interés público. Hablamos, por ejemplo, de estudios relacionados con salud pública, del empleo de la IA para la sostenibilidad en las ciudades o de crear algoritmos equitativos y sin sesgos.
Más aún, no solo parece estar en juego la orientación de la investigación en IA. También su carácter abierto. Como toda disciplina que germina en un ámbito académico, la inteligencia artificial se ha desarrollado a base de compartir conocimientos. Un mejunje variopinto de universidades, centros de investigación y empresas de todo el mundo han contribuido. No se habría podido llegar hasta los sistemas de hoy en día sin este intercambio, que ahora se pone en cuestión.
En unas declaraciones a la revista Time, el CEO de DeepMind Demis Hassabis sugería que quizá había llegado el momento de dejar de compartir el conocimiento. Sobre todo aludía a la existencia de entidades que solo leen pero no contribuyen a la comunidad científica. Y añadía que con ello también se refería a estados nacionales, apuntando claramente a China. Con intereses económicos, incluso geopolíticos, de primacía tecnológica, tan fuertes detrás, la investigación en IA podría fragmentarse. Lo inquietante aquí sería la falta de acceso de las universidades a los desarrollos llevado a cabo en las empresas, un factor que agudizaría el desequilibrio.
En la academia, conscientes de esta situación, exploran sus opciones. Saben que no pueden competir en las áreas que interesan a las empresas, así que tratan de hacer una investigación más contextual, de seguimiento, en estos campos. Al tiempo que buscan nuevos nichos para investigar. La clave, ante la fuerza arrolladora de las grandes tecnológicas, es mantener la capacidad de la academia de investigar en IA cuestiones que sean de interés público. Sobre todo cuando hablamos de una tecnología que se espera que permee a toda la sociedad en su conjunto.