El lunes en la WWDC 2024, Apple presentó Apple Intelligence, su tan esperado impulso en todo el ecosistema hacia la IA generativa. Como sugirieron rumores anteriores, la nueva función se llama Apple Intelligence (IA, ¿entiendes?). La compañía prometió que la función se creará teniendo en cuenta la seguridad y experiencias altamente personalizadas.
“Lo más importante es que tiene que entenderte y basarse en tu contexto personal, como tu rutina, tus relaciones, tus comunicaciones y más”, señaló el director ejecutivo Tim Cook. “Y, por supuesto, tiene que construirse juntos desde cero con privacidad. Todo esto va más allá de la inteligencia artificial. Es inteligencia personal y es el próximo gran paso para Apple”.
La compañía ha estado impulsando la función como parte integral de todas sus diversas ofertas de sistemas operativos, incluidos iOS, macOS y el último, visionOS.
“Tiene que ser lo suficientemente potente como para ayudar con las cosas que más le importan”, dijo Cook. “Tiene que ser intuitivo y fácil de usar. Tiene que estar profundamente integrado en las experiencias de sus productos. Lo más importante es que debe comprenderlo y basarse en su contexto personal, como su rutina, sus relaciones, sus comunicaciones y más, y por supuesto, debe construirse con privacidad desde cero. Juntos. Todo esto va más allá de la inteligencia artificial. Es inteligencia personal y es el próximo gran paso para Apple”.
El vicepresidente senior Craig Federighi añadió: “La inteligencia de Apple se basa en sus datos y contexto personales”. La función se basará efectivamente en todos los datos personales que los usuarios ingresan en aplicaciones como Calendario y Mapas.
El sistema se basa en grandes modelos de lenguaje e inteligencia. Gran parte de ese procesamiento se realiza localmente según la empresa y utiliza la última versión de Apple Silicon. “Muchos de estos modelos funcionan completamente en el dispositivo”, afirmó Federighi durante el evento.
Dicho esto, estos sistemas de consumo todavía tienen limitaciones. Como tal, parte del trabajo pesado debe realizarse fuera del dispositivo en la nube. Apple está agregando Private Cloud Compute a la oferta. El backend utiliza servicios que ejecutan chips de Apple, en un intento por aumentar la privacidad de estos datos tan personales.
Apple Intelligence también incluye lo que probablemente sea la mayor actualización de Siri desde que se anunció hace más de una década. La compañía dice que la función está “más profundamente integrada” en sus sistemas operativos. En el caso de iOS, eso significa cambiar el familiar ícono de Siri por un borde azul brillante que rodea el escritorio mientras está en uso.
Siri ya no es sólo una interfaz de voz. Apple también está agregando la capacidad de escribir consultas directamente en el sistema para acceder a su inteligencia generativa basada en IA. Es un reconocimiento de que la voz a menudo no es la mejor interfaz para estos sistemas.
![](https://techcrunch.com/wp-content/uploads/2024/06/wwdc24-siri-rewrite.jpg?w=680)
Mientras tanto, App Intents ofrece la posibilidad de integrar el asistente de forma más directa en diferentes aplicaciones. Esto comenzará con aplicaciones propias, pero la empresa también abrirá el acceso a terceros. Esa adición mejorará drásticamente el tipo de cosas que Siri puede hacer directamente.
La oferta también abrirá profundamente la multitarea, permitiendo una especie de compatibilidad entre aplicaciones. Eso significa, por ejemplo, que los usuarios no tendrán que cambiar constantemente entre Calendario, Correo y Mapas para programar reuniones, por ejemplo.
Apple Intelligence se integrará en la mayoría de las aplicaciones de la empresa. Eso incluye cosas como la capacidad de ayudar a redactar mensajes dentro de Mail (junto con aplicaciones de terceros) o simplemente utilizar Respuestas inteligentes para responder. Esta es, en particular, una característica que Google ha ofrecido desde hace algún tiempo en Gmail y ha seguido desarrollándola utilizando su propio modelo de IA generativa, Gemini.
La compañía incluso está incorporando la función a los emojis con Genmoji (sí, ese es el nombre). La función utiliza un campo de texto para crear emojis personalizados. Mientras tanto, Image Playground es un generador de imágenes en el dispositivo integrado en aplicaciones como Messages, Keynote, Pages y Freeform. Apple también traerá una aplicación Image Playground independiente a iOS y abrirá el acceso a la oferta a través de una API.
![](https://techcrunch.com/wp-content/uploads/2024/06/wwdc24-siri-chatgpt-02.jpg?w=680)
Mientras tanto, Image Wand es una nueva herramienta para Apple Pencil que permite a los usuarios rodear texto para crear una imagen. Efectivamente, es la versión de Apple del Círculo de búsqueda de Google, centrado únicamente en imágenes.
También se ha creado una búsqueda de contenido como fotos y vídeos. La empresa promete búsquedas en lenguaje más natural dentro de estas aplicaciones. Los modelos GenAI también facilitan la creación de presentaciones de diapositivas dentro de Fotos, nuevamente utilizando indicaciones en lenguaje natural. Apple Intelligence se implementará en las últimas versiones de sus sistemas operativos, incluidos iOS y iPadOS 18, macOS Sequoia y visionOS 2. Está disponible de forma gratuita con esas actualizaciones.
La función llegará a los dispositivos iPhone 15 Pro y M1 Mac y iPad. El iPhone 15 estándar no tendrá esta función, probablemente debido a limitaciones del chip.
Como se esperaba, Apple también anunció una asociación con OpenAI que lleva ChatGPT a ofertas como Siri. La función impulsada por GPT 4.0 utiliza la generación de imágenes y texto de esa empresa. La oferta brindará a los usuarios acceso sin tener que registrarse para obtener una cuenta o pagar una tarifa (aunque aún pueden actualizar a premium).
Llegará para iOS, iPadOS y macOS a finales de este año. La compañía dice que también integrará otros LLM de terceros, aunque no ofreció muchos detalles. Parece probable que Gemini de Google esté cerca de la cima de esa lista.