Según Gartner, en 2025, el 75% de los datos generados se producirán fuera de los centros de datos. Es normal que las empresas empiecen a plantearse en qué casos va a ser más eficiente acercar el modelo a los datos en vez de llevarlos todos a la nube. Su centralización, hasta ahora la opción utilizada por defecto, presenta desafíos como unos costes crecientes de computación, datos sensibles saliendo de la organización o una latencia que depende de la red. Todo ello hace que trasladar la inteligencia al dispositivo sea una inmensa oportunidad de mercado. La carrera por ver quién la captura ha comenzado.
Aunque la oportunidad es clara, no está resultando fácil. Son muchas las piezas que tienen que encajar para que la IA generativa baje de la nube y nos quepa en el bolsillo: reducir el número de parámetros de los modelos, conseguir una mayor capacidad de cómputo sin consumir su batería e, incluso, desarrollar un hardware diseñado para explotar nuevas formas de interacción. Y al final de todo este esfuerzo, encontrar los casos de uso que lo monetice. Echemos un vistazo a cada una de las piezas de este engranaje antes de unirlas.
Primera pieza: modelos de lenguaje más pequeños
Durante el último año, se ha producido una explosión de modelos de lenguaje pequeños (SML) adaptados a usos específicos como hacer traducciones, entablar conversaciones o generar texto. Aunque estos modelos son menos sofisticados y versátiles que los de mayor tamaño, son más eficientes en el uso de recursos computacionales, lo que permite ejecutarlos en dispositivos personales como smartphones y PCs.
El tamaño de un modelo se mide por el número de tokens, que más o menos equivale al número de palabras, y por el número de parámetros, que son las variables que definen lo que ha aprendido el modelo en la fase de entrenamiento. Es fácil deducir que, cuantos más parámetros haya en el modelo, mayores serán las necesidades de cómputo en la fase de inferencia, es decir, cuando el usuario realmente lo utiliza para hacer predicciones o generar resultados.
Los modelos más avanzados, como Gemini 1.5 Pro o GPT-4o, utilizan más de un billón de parámetros, lo que los hace muy precisos, pero también más costosos. En consecuencia, proveedores como Google, Meta, OpenAI y Mistral están lanzando versiones con un menor número de parámetros, reduciendo la escala de billones a miles de millones (se necesita un mínimo para obtener resultados fiables).
Cualquier modelo se puede comprimir y adaptar a diferentes usos. Por ejemplo, el lanzamiento de Gemini 1.5 Pro ha venido acompañado de una versión más ligera denominada “Flash” para casos de uso que requieran una baja latencia. Estas versiones se unen a Gemini Nano, diseñada específicamente para smartphones y desde enero de 2024 está integrada en los Galaxy S24 de Samsung, así como en los propios dispositivos de Google (Pixel).
Apple está actuando con discreción. Recientemente ha presentado OpenELM, un modelo abierto que busca optimizar el número de parámetros para lograr mayor eficiencia en el uso de recursos tanto de memoria como de cómputo. En realidad, se ofrecen cuatro tamaños que van desde 270 millones hasta 3 mil millones de parámetros. Una ventaja de Apple es que puede optimizar sus modelos para sus procesadores y diseñar su próxima generación de procesadores para nuevos modelos. Precisamente, los chips son la segunda pieza del engranaje.
Segunda pieza: chips más potentes y eficientes
Nvidia ha sido el claro vencedor de la explosión de la IA generativa en el data center, con una posición de dominio incuestionable. Ahora, todos los gigantes de la nube quieren acabar con esa dependencia diseñando sus propios procesadores. Incluso Microsoft, que había sido más reacia (Google diseña sus propios chips desde hace casi una década), ha lanzado sus propios diseños.
Donde Nvidia sí está encontrando una feroz competencia es en los dispositivos personales. Empresas como Qualcomm, Intel y AMD no están dispuestas a dejar pasar esta oportunidad. Por ejemplo, Qualcomm ha desarrollado con éxito chips que soportan el modelo de lenguaje Llama 2 de Meta. En otra parte del mercado, Samsung también está desarrollando sus propios chips (Exynos 2400) para mejorar el rendimiento y la duración de la batería de sus smartphones.
Apple este año, al presentar su nuevo procesador M4 ha proporcionado por primera vez cifras concretas sobre su rendimiento. Comparándolo con su predecesor, el M2, ofrece el mismo rendimiento con la mitad de potencia. En palabras de Tim Millet, responsable de la división de hardware, es un chip “escandalosamente poderoso”.
Y esto nos lleva a la tercera pieza del rompecabezas que estamos construyendo, que es una nueva generación de dispositivos personales capaces de soportar modelos hambrientos de cómputo.
Tercera pieza: nueva generación de dispositivos personales
La IA generativa abre la puerta a una transformación de los dispositivos personales, desde el PC hasta el smartphone. Incluso, puede que dé lugar a una nueva categoría de hardware pensado para ser hacerse visible solo cuando el usuario lo necesite. Un dispositivo que nos libere del uso de las pantallas.
Esta es precisamente la propuesta de dispositivos como PIN AI, que, aunque en su primera versión no ha conseguido cubrir las expectativas generadas (reemplazar el smartphone nunca fue realista), sí apunta a que nuevas versiones mejoradas encuentren su espacio en el mercado.
Sin embargo, los nuevos entrantes no cuentan con los recursos “ilimitados” de competidores como Meta o Google, que pueden iterar distintas versiones de producto hasta conseguir mejoras significativas en su eficiencia energética, la vida de la batería, así como en la capacidad de memoria y procesamiento.
En cada dispositivo será distinto. De hecho, fabricantes como Apple van a tener que gestionar la integración de la IA generativa en una amplia gama de productos, desde las nuevas Vision Pro hasta los Macs. Además, deberá tener en cuenta que los clientes no reciben la innovación del mismo modo en todos los mercados. Por ejemplo, en aquellos maduros como el de PCs, con sus propios ciclos de renovación, está por ver si los clientes están dispuestos a pagar más por capacidades de IA. Todo va a depender de los casos de uso y de cómo monetizarlos. Esta es la última de las piezas que nos falta por encajar.
Cuarta pieza: monetizar asistentes personales inteligentes
Al principio, los asistentes virtuales como Alexa o Siri despertaron nuestra imaginación sobre lo que podrían llegar a hacer, pero después de un tiempo conviviendo con ellos nos hemos acostumbrado a sus limitaciones. Ahora volvemos a soñar con un mundo de posibilidades integrando en ellos una IA generativa multimodal que es capaz de combinar indistintamente voz, texto, vídeo e imagen.
Recientemente, Google ha presentado en un vídeo un prototipo de asistente personal capaz de mantener una conversación, al mismo tiempo que analiza información del entorno del usuario a través de la cámara del dispositivo. Durante la demostración, el asistente exhibió su habilidad identificando correctamente secuencias de código en una pantalla de ordenador, sugiriendo mejoras en un diagrama de circuitos eléctricos de un plano o encontrando unas gafas olvidades entre los papeles del escritorio. Por su parte, casi al mismo tiempo, OpenAI presentaba los avances de ChatGPT, permitiendo que el asistente actuara como intérprete para la CTO de la compañía, traduciendo del italiano al inglés y viceversa durante una conversación en vivo.
Apple parte de una posición de ventaja: tiene una amplia base de usuarios, aproximadamente 1.382 millones de usuarios activos en todo el mundo en 2023 según Statista. Esto le permite conocer cómo las personas están utilizando los asistentes virtuales en su vida diaria, que junto con la potencia de la IA multimodal va a transformar nuestra relación con la tecnología. De hecho, actualmente está cerrando un acuerdo con OpenAI que le permitirá ofrecer una versión avanzada de Siri. Algunos bancos de inversión ya están haciendo números, especulando sobre cuáles pueden ser los ingresos al convertir el asistente personal en un servicio de suscripción de pago similar a iCloud. Si esto sucede, Apple habrá encontrado una forma de monetizar la inversión.
Las piezas encajan: el clic resuena en la bolsa de valores
Durante el último año, la cotización de los gigantes de la nube se ha disparado: el mercado ha recompensado su inversión en capacidad de cómputo y centros de datos. Si uno observa su evolución respecto a Apple, rápidamente percibe que se ha abierto una brecha entre ellas.
Ahora estamos a las puertas de una transformación en cómo interactuamos con la tecnología en nuestro día a día. Ha llegado el turno de que la IA generativa entre en el dispositivo personal.
No sabemos qué casos de uso serán los que impulsen el mercado, pero sí que la combinación de una baja latencia, menores costes y control sobre datos sensibles es una fórmula ganadora para el desarrollo de los asistentes personales. Basta imaginar el impacto que tendrá un servicio de traducción instantánea (latencia cero) o la personalización de cualquier servicio fruto de un registro de interacciones pasadas en el propio dispositivo (privacidad).
Tim Cook es un CEO circunspecto que ha impregnado de secretismo todos los proyectos que emprende Apple. Una empresa tecnológica que no se caracteriza por ser la primera en lanzar productos, pero que cuando lo hace, da forma al mercado. El 10 de junio, en su evento para desarrolladores, veremos si Cook no solo se sube a la ola de la IA generativa, sino si es capaz de meterla en nuestro bolsillo. Entonces, con la mirada puesta en Wall Street, sabremos si el mercado confía o no en su liderazgo.