Apple parecía haber perdido el tren de la IA, pero quizás solo esté cocinando su particular revolución a fuego lento. Eso es al menos lo que se desgrana de un reciente descubrimiento: una investigación de expertos de la compañía que apuntan a un rival de ChatGPT con una diferencia fundamental: no estará basado en la nube.
Un estudio prometedor. Un grupo de investigadores de Apple han publicado un nuevo informe titulado «LLM in a flash» que plantea una idea interesante. Según dicho estudio, el almacenamiento Flash es más abundante en dispositivos móviles que la memoria RAM que normalmente se usa en LLMs. Con su método es posible aprovechar ese tipo de almacenamiento, algo que abre las puertas a posibilidades llamativas.
Dos técnicas para solucionar el problema. Para habilitar ese tipo de características, los investigadores han creado dos técnicas distintas. La primera, el llamado «windowing», que permite que en lugar de usar nuevos datos cada vez, la IA reutilice parte de los datos ya procesados, reciclándolos. La segunda, el llamado «Row-Column Bundling», que permite reagrupar los datos de forma más eficiente, pudiendo así acelerar la capacidad de la IA para comprender y generar lenguaje.
Un AppleGPT a la vista. Combinar estos métodos permite plantear la llegada de un «AppleGPT» que no funcionaría desde la nube, sino directamente en el móvil, aunque no dispongamos de conexión a redes de datos. Además, aseguran los investigadores, las técnicas permitirían multiplicar por 4-5 veces la velocidad de proceso de IA en la CPU móvil, y hasta 20-25 veces en su GPU. Como señalan en su estudio, «este avance es especialmente crucial para desplegar LLM avanzados en entornos con recursos limitados, ampliando así su aplicabilidad y accesibilidad».
¿Un Siri supervitaminado? Según indicaron en Bloomberg hace unas semanas, Apple está trabajando en una versión más potente de Siri en la que habría una importante integración de la inteligencia artificial. El asistente podría así contestar a preguntas más complejas o autocompletar frases de forma más eficiente. También se habla de traducción de idiomas en tiempo real y, por supuesto, nuevas capacidades en el ámbito de la fotografía y la realidad aumentada, sobre todo ahora que las Vision Pro están a punto de llegar.
Ajax como base. En verano ya hablamos de este ambicioso proyecto de Apple que tendrá como componente fundamental Ajax. Este LLM tratará de competir con GPT-4 (o al menos GPT-3.5), PaLM 2 o Llama, los modelos de OpenAI, Google y Meta. Los movimientos de Apple en este sentido también afectan a las herramientas con las que están trabajando sus desarrolladores, y el esfuerzo parece querer cristalizar con iOS 18.
Apple quiere que uses su chatbot en local. La gran diferencia aquí está en la capacidad de poder usar este ‘Apple GPT’ —o como se llame— de forma totalmente independiente de la nube. Estamos ante un caso de solución de computación «edge», esto es, ejecutada en local, sin necesidad de que por ejemplo estemos conectados a redes de datos. Es lo mismo que por ejemplo persigue Google con Gemini Nano.
Por qué esto es importante. Esa diferencia en su modo de funcionamiento es relevante porque precisamente es coherente con la filosofía de Apple: evitar la nube permitirá teóricamente a la compañía presumir de más garantías en materia de privacidad porque lo que preguntemos y nos responda el chatbot no saldrá de nuestro dispositivo ni «se recolectará». Apple lleva tiempo proclamándose adalid de nuestra privacidad (ejem), y esto podría reforzar ese discurso.