Así es como la IA transformará el iPhone, iPad y Mac este otoño
Conclusiones clave
- El otoño de 2024 lleva Apple Intelligence a los modelos de iPhone, iPad y Mac con procesador A17 Pro o M1 y posteriores.
- Espere interacciones Siri más inteligentes, herramientas de generación de texto, capacidades de generación de imágenes y la capacidad de controlar diversas acciones en todo el sistema con comandos de lenguaje natural.
- Apple prioriza la privacidad con el procesamiento en el dispositivo y planea futuros diseños de chips para mejorar la IA.
Si tiene un iPhone 15 Pro, un iPad o Mac con un procesador M1 o superior, Apple Intelligence podría transformar la forma en que interactúa con su teléfono inteligente, tableta y computadora. Esto es lo que puede esperar antes del lanzamiento en el otoño de 2024.
¿Qué es la inteligencia de Apple?
Apple Intelligence es la versión de Apple de la inteligencia artificial de modelo de lenguaje grande (LLM). Es muy parecido a herramientas existentes como ChatGPT y Google Gemini, excepto que funciona únicamente dentro del ecosistema de Apple. Muchas de las herramientas y aplicaciones existentes de Apple recibirán soporte para Apple Intelligence cuando se lance la función.
Estas nuevas funciones de IA llegarán en otoño con el lanzamiento de iOS 18, iPadOS 18 y macOS 15 Sequoia.
Siri se vuelve inteligente
En el corazón de Apple Intelligence se encuentra una versión mejorada de Siri, el asistente digital de la compañía. Apple promete que Apple Intelligence hará que Siri sea más personal, más natural y mejor a la hora de mostrar información relevante. Siri es la interfaz a través de la cual los usuarios interactuarán principalmente con el modelo de IA.
El nuevo y mejorado Siri puede comprender mejor las solicitudes habladas, incluidas aquellas en las que te equivocas con las palabras. El contexto se mantiene entre solicitudes, por lo que puede hacer cosas como emitir un comando de seguimiento que siga el hilo de su conversación. Puede solicitar el clima en una ubicación y luego continuar con un recordatorio específico de la misma ubicación sin volver a mencionar el nombre del lugar.
Podrás emitir comandos más complejos y Siri debería poder entenderlos. Puedes pedirle a Siri que busque tus fotos tomadas con una persona específica en una ubicación determinada, luego edite la foto y luego se la envíe a un contacto. El contexto se mantiene para que Siri permanezca en la misma página, en cada paso del camino.
Una nueva función llamada escribir a Siri te permite enviar comandos a Siri sin usar tu voz. Esto no sólo significa que puedes emitir comandos “silenciosos” en cualquier lugar simplemente escribiendo, sino que efectivamente convierte a Siri en una interfaz de aviso similar a ChatGPT.
Siri también podrá comprender lo que sucede en tu pantalla en un momento dado. Esto le permitirá emitir comandos relacionados con cualquier información que esté en pantalla. Un ejemplo es agregar una dirección a una tarjeta de contacto mientras chatea en una ventana de Mensajes.
En el iPhone, Siri también adquiere un aspecto completamente nuevo. En lugar de la habitual burbuja de Siri que aparece en la parte inferior de la página, al activar Siri ahora se colocará un borde brillante alrededor del borde de la pantalla. La implementación de Siri en Mac parece prácticamente sin cambios, con conversaciones que tienen lugar en la esquina superior derecha de la pantalla.
Apple enfatizó que las mejoras de Siri continuarán durante el próximo ciclo de actualización, así que espere que el asistente se vuelva más inteligente con nuevas actualizaciones para iOS 18, iPadOS 18 y macOS 15 Sonoma.
La inteligencia de Apple habla tu idioma
Apple Intelligence le permite generar y analizar texto de maneras que deberían ser útiles en todo el sistema, ya sea que esté en un teléfono, tableta o computadora. Apple ha introducido un conjunto de herramientas de escritura que le permiten resaltar y luego reescribir secciones de texto, ajustándolas al tono. Puedes generar nuevas versiones o volver al texto original en cualquier momento.
Las respuestas contextuales le permiten generar respuestas basadas en el contenido de un mensaje o correo electrónico. Estos aparecen en el cuadro Tipo rápido en un iPhone y brindan indicaciones para recopilar información. Puede tocar algunas casillas y Apple Intelligence responderá de la misma manera.
Además de reescribir y responder, una nueva herramienta de corrección muestra errores gramaticales y ortográficos. Puede revisar cada sugerencia una por una o aceptar todo con un toque o un clic.
Apple Intelligence puede analizar cuerpos de texto y tomar decisiones basadas en el contexto. Esto se aplica a cosas como la bandeja de entrada de su correo electrónico con una priorización inteligente. , donde verás tus mensajes más importantes en la parte superior de tu bandeja de entrada. También obtendrá resúmenes en la parte superior de largas cadenas de correo electrónico, lo que le permitirá ponerse al día rápidamente con los hilos que se ha perdido.
También obtendrá la capacidad de transcribir texto de notas de voz (tomada directamente en Notas, una nueva función de iOS 18) y a través de la aplicación Teléfono de su iPhone.
Por último, Apple Intelligence ordenará sus notificaciones según su importancia. Una nueva opción "Reducir interrupciones" solo mostrará las notificaciones más importantes, como una versión más inteligente de las notificaciones urgentes introducidas en iOS 15.
Genera imágenes como emoji personalizados
El modelo de Apple también incluye capacidades generativas de imágenes, comenzando con Genmoji. Abreviatura de "emoji generativo", Apple Intelligence creará nuevos emoji según tus indicaciones, con múltiples opciones para que puedas clasificar. Luego puedes enviarlos como tapbacks, stickers o emoji en línea en tus mensajes. Apple también mostró una función que genera emoji según la apariencia del contacto.
Image Playground es la versión de Apple de una herramienta de imágenes de IA generativa, como DALL-E y Midjourney. Esta herramienta estará disponible como una aplicación independiente; se integrará en aplicaciones como Messages, Freeform y Pages; y se puede agregar a aplicaciones de terceros utilizando la API de Apple.
Funciona etiquetando temas, elementos y accesorios en una interfaz visual y generando imágenes según lo que haya seleccionado. Puede escribir indicaciones manuales o agregar elementos de una lista de sugerencias y seleccionar estilos como boceto, ilustración y animación. La generación de imágenes se realiza en su dispositivo.
Una extensión de Image Playground llamada Image Wand agrega generación contextual a otras aplicaciones. Al seleccionar Image Wand de la lista de herramientas que aparece en la aplicación Notas, puede generar imágenes basadas en el contexto de su nota o transformar bocetos en obras de arte terminadas generadas por IA.
Apple Intelligence también ofrece edición basada en indicaciones a Fotos. No solo puede ladrar instrucciones en la aplicación para realizar ediciones estándar, como calentar una imagen, sino que también puede usar una herramienta de limpieza de imágenes para eliminar elementos no deseados de las imágenes.
Apple también facilita la creación de películas de recuerdos desde su biblioteca de Fotos. En lugar de buscar manualmente una lista de imágenes relevantes, puede emitir un mensaje y Fotos seleccionará imágenes y generará una película para usted.
No debería sorprender que las imágenes presentadas en la presentación de la WWDC de Apple tuvieran ese "aspecto" generativo de IA. Esto es normal cuando se trata de imágenes generadas por IA.
Realice acciones en todas las aplicaciones
Donde Apple Intelligence comienza a desviarse de herramientas como ChatGPT es en su capacidad para realizar acciones. Esta es una posición única que solo los titulares de plataformas pueden adoptar, y Apple parece no perder el tiempo en implementar acciones basadas en avisos en iOS, iPadOS y macOS.
Apple dio muchos ejemplos durante su presentación en la WWDC, desde comandos simples como "crear una carpeta llamada Nueva" y "voltear mi cámara" hasta comandos más avanzados específicos del contexto como "reproducir el podcast que mi esposa envió el otro día".
Algunos de los otros ejemplos que aparecieron en segundo plano incluyeron eliminar sesiones de pestañas específicas, buscar y luego aplicar ediciones a fotos, agregar elementos a notas y reproducir música.
Tendremos que esperar y ver cómo se desarrolla esto, pero según los ejemplos de Apple, estamos emocionados de ver qué es posible. La variedad de comandos fue lo suficientemente variada como para entusiasmarnos con el potencial. El objetivo final aquí debería ser generar suficiente confianza en el usuario para que no dude en intentar realizar las tareas cotidianas con Apple Intelligence.
Si Apple puede lograrlo, esto podría ser algo especial.
El contexto personal lo es todo
La verdadera diferencia entre la implementación de Apple y algo como ChatGPT es que su iPhone (o iPad o Mac) es el centro de la experiencia. Tu dispositivo ya sabe mucho sobre ti: las personas con las que hablas, cuándo sales a trabajar, los lugares que frecuentas, etc.
Al aprovechar este contexto, estas operaciones impulsadas por la IA se vuelven personales. Se vuelven mucho más útiles y mucho más relevantes. Si tu iPhone entiende quién es tu jefe, cuándo hablas con él y qué tipo de tono es apropiado, entonces las respuestas que generas en un correo electrónico son mucho más útiles.
La búsqueda es un área donde este contexto puede resultar realmente útil. Con Apple Intelligence puedes pedirle a Siri que busque un enlace de alguien que recibiste la semana pasada, independientemente de si recuerdas si fue un correo electrónico o un mensaje. Puede obtener información de conversaciones que olvidó anotar, como una dirección o la hora a la que se supone que deben reunirse.
Siri puede hacer uso de toda la información de tu dispositivo que el asistente ya conoce. Algunos ejemplos incluyen el contenido de su bandeja de entrada, los archivos que guardó recientemente, temas en cadenas de mensajes, recordatorios que olvidó, enlaces que compartió, próximos eventos del calendario, pases que agregó a la aplicación Wallet y pronto.
La privacidad está incorporada
El otro gran problema con la implementación de Apple es el enfoque de la empresa en la privacidad. Apple se ha posicionado como una empresa que hace todo lo posible para respetar la privacidad del usuario, y Apple Intelligence lleva adelante esta antorcha. Muchas de estas solicitudes se realizarán completamente en el dispositivo.
Para tareas que requieren más potencia de procesamiento, Private Cloud Compute de Apple da un paso adelante. Supuestamente su dispositivo sólo enviará datos relevantes a los servidores de Apple cuando sea necesario. Estos datos nunca se almacenan y supuestamente Apple nunca puede acceder a ellos. Estos servidores fueron construidos por Apple utilizando sus propios chips Apple Silicon específicamente para Apple Intelligence.
Queda por ver cuántas de estas solicitudes se pueden realizar en el dispositivo. A medida que los dispositivos se vuelven más potentes, es probable que veamos que la mayoría de estas operaciones se completan sin conexión en el futuro. Apple apuesta por la IA en este momento, por lo que se espera que los futuros diseños de chips den prioridad a las capacidades de Apple Intelligence.
ChatGPT integrado
Siri también tendrá una ventana para ChatGPT 4o, que llegará “a finales de este año”, según el anuncio de la WWDC. Apple afirma que las solicitudes a ChatGPT no se registrarán e incluso podrás conectar tu cuenta OpenAI para acceder a funciones premium si estás suscrito.
Cuando Siri detecte que ChatGPT puede ayudar, le ofrecerá enviar su solicitud o imagen al servicio. Una vez que haya dado su permiso, la solicitud se procesará y recibirá una respuesta. Incluso puedes usar GPT 4o dentro de las herramientas de escritura de Apple para generar texto y utilizar DALL-E para generar imágenes.
La integración de ChatGPT será gratuita para todos los usuarios de Apple Intelligence.
Compatibilidad de inteligencia de Apple
Desafortunadamente, Apple Intelligence requiere un dispositivo Apple moderno como el iPhone 15 Pro (A17) o un iPad o Mac con procesador M1. Se espera que tanto el iPhone 16 como el iPhone 16 Pro sean compatibles con el servicio gracias al próximo chip A18.
Si bien Apple Intelligence podría haber sido el anuncio más importante de la WWDC 2024, Apple también causó conmoción en todo el mundo con el anuncio de una aplicación Calculadora para iPadOS.