A los ejecutivos de Apple no les gusta hablar de IA, en cambio prefieren utilizar la frase “aprendizaje automático” o simplemente hablar de “la función que permite la tecnología”.
El lunes, durante la WWDC, se mostró sutilmente todo el trabajo que desarrolla la empresa en inteligencia artificial de última generación.
Apple parecía estar al margen de Microsoft, Google u OpenAi, sin embargo durante la conferencia se dieron a conocer varias funciones de IA, incluida la corrección automática mejorada de iPhone, basada en un programa de aprendizaje automático que utiliza un modelo de lenguaje similar al que utiliza ChatGPT. Incluso aprenderá cómo el usuario escribe y con base a ello se adapta rápida y eficientemente, dijo Apple.
ChatGPT de OpenAI llegó a más de 100 millones de usuarios en dos meses cuando se lanzó el año pasado, pero ahora Apple está tomando esa misma tecnología para perfeccionar una función que mil millones de propietarios de iPhone usan todos los días.
A diferencia de sus rivales que están construyendo modelos más grandes que dependen de una red interconectada en la nube, Apple está haciendo funcionar la IA enteramente en sus dispositivos. La nueva función de autocorrección es particularmente impresionante porque se ejecuta en el teléfono, mientras que modelos como ChatGPT requieren cientos de GPU enlazadas al mismo tiempo.
La IA en el dispositivo evita muchos de los problemas de privacidad de datos que enfrenta la inteligencia artificial basada en la nube. Cuando el modelo se puede ejecutar en un teléfono, se necesita recopilar menos datos para ponerlo en marcha.
Apple ha sido muy reservada durante décadas. En lugar de hablar sobre un modelo de IA específico, simplemente menciona la función y dice que “hay una tecnología genial trabajando detrás de escena”. Por ejemplo, los AirPods Pro, apagan automáticamente la cancelación de ruido cuando el usuario participa en una conversación y aunque evidentemente utilizan IA, el fabricante no lo enmarca como tal.
En una de las funciones más audaces anunciadas el lunes, la nueva función “Digital Persona” de Apple realiza un escaneo 3D de la cara y el cuerpo del usuario y luego puede recrear su aspecto virtualmente mientras realiza videoconferencias con otros en los nuevos Vision Pro.
Apple también mencionó otras nuevas funciones como la identificación de campos que se deben completar en un PDF, lo cual requiere de redes neuronales artificiales para que funcione eficientemente.
El broche de oro en cuanto al uso de IA por parte de Apple fue el anuncio de que el iPhone ahora es capaz de identificar una imagen como por ejemplo la de su mascota, diferenciarla de cualquier otra, y juntar las fotos de manera automatizada en una misma carpeta.