- Apple Intelligence es la nueva inteligencia personal integrada en iPhone, iPad, Mac, Apple Watch y Vision Pro, centrada en la privacidad y el procesamiento local.
- Incluye funciones de escritura inteligente, generación de imágenes, Genmoji, mejoras en Fotos, traducción en tiempo real y una Siri completamente renovada.
- Se apoya en Private Cloud Compute y, cuando hace falta, en ChatGPT, manteniendo el control del usuario sobre qué datos se comparten.
- Requiere dispositivos recientes (iPhone 15 Pro y 16 en adelante, chips M1 o posteriores) y versiones actualizadas de iOS, iPadOS, macOS, visionOS y watchOS.
Apple Intelligence es la gran apuesta de Apple por la inteligencia artificial, un sistema que no se presenta como una simple app, sino como una capa de «inteligencia personal» integrada en todo el ecosistema: iPhone, iPad, Mac, Apple Watch y Apple Vision Pro. Su objetivo es muy claro: que el dispositivo entienda tu contexto, tus tareas y tu información para ayudarte en el día a día sin que tengas que cambiar tu forma de usarlo.
Esta nueva IA llega después de años de rumores y pruebas internas y ya se ha convertido en un pilar del sistema en iOS 18 y posteriores, iPadOS, macOS Sequoia y las nuevas versiones de visionOS y watchOS. No es una simple moda: afecta a cómo escribes, cómo buscas, cómo gestionas tus notificaciones, cómo editas fotos, cómo te comunicas en otros idiomas e incluso a cómo funciona Siri, que renace por completo apoyándose en Apple Intelligence y, cuando hace falta, en ChatGPT.
Qué es Apple Intelligence y en qué se diferencia de otras IA
Apple Intelligence es el sistema de inteligencia personal creado por Apple, pensado para ir un paso más allá de los asistentes de voz clásicos y de los típicos chatbots en la nube. En lugar de ser una web o una app aislada, está «pegada» al propio sistema operativo y se activa de forma natural en apps como Mensajes, Mail, Notas, Pages, Fotos, Safari o Recordatorios, entre muchas otras.
A nivel conceptual, Apple la define como una Inteligencia Personal que aprende de tus rutinas, relaciones y comunicaciones, pero con una obsesión: preservar tu privacidad. Por eso, la mayor parte del procesamiento se hace directamente en el dispositivo, aprovechando la potencia de los chips propios (A17 Pro, familia M1 y superiores). Tu información se usa para ayudarte, pero no se recopila ni se envía por defecto a servidores externos.
Cuando la tarea es demasiado pesada para el dispositivo, entra en juego Private Cloud Compute, la Computación Privada en la Nube de Apple. Son servidores con chips de Apple diseñados solo para procesar estas solicitudes complejas. Según la compañía, los datos se fragmentan, no se guardan y el software de estos servidores se puede auditar públicamente para verificar que no se almacena nada.
Otra gran diferencia está en que Apple Intelligence no se limita a un único modelo de IA. En primer lugar, usa sus propios modelos locales y de nube privada. Pero, además, permite apoyarse en modelos de terceros como ChatGPT cuando necesita creatividad extra o respuestas muy abiertas. Eso sí, cada vez que vaya a usar ChatGPT te pedirá confirmación para que decidas si quieres compartir esa información o no.
Todo esto la aleja de soluciones puramente en la nube como muchos LLM clásicos: la IA se adapta al dispositivo y a tu contexto, no al revés. Entiende tus correos, tus eventos del calendario, tus mensajes, tus fotos y lo que ves en pantalla para poder ayudarte con una lógica muy distinta a la de un simple chat.
Privacidad y Computación Privada en la Nube
Uno de los grandes pilares del proyecto es que el diseño de Apple Intelligence parte desde cero pensando en la privacidad. Apple insiste en que la IA debe ser personal, útil y, sobre todo, privada. Por eso, la regla general es que tus datos se procesan en tu propio iPhone, iPad o Mac, sin salir de ahí.
Cuando hace falta más potencia, entra en juego Private Cloud Compute (Computación Privada en la Nube). En ese escenario, ciertas partes de tu petición se envían a servidores con chips de Apple dedicados a este propósito. La información se usa solo para resolver esa tarea, no se almacena a largo plazo y el software de esos servidores es auditable por expertos externos para comprobar que no se guardan datos personales.
La clave está en que la IA conoce tu información personal, pero no la recopila ni la construye en perfiles comerciales. Puede entender qué hay en tus mensajes, tu calendario, tus fotos o tus notas para ayudarte, por ejemplo, a encontrar la reserva de un viaje o el número de vuelo de tu madre, pero sin convertir todo eso en un historial que circule por la nube.
Frente a otras compañías que basan toda su IA en la nube, Apple ha elegido el camino complicado de llevar la inteligencia al propio dispositivo, delegando en servidores solo cuando no hay más remedio. A nivel de confianza del usuario y normativa de datos, esta jugada puede marcar la diferencia a medio plazo.
Para qué sirve Apple Intelligence en el día a día
Apple Intelligence está presente de forma distinta en iPhone, iPad, Mac, Apple Watch y Apple Vision Pro, pero la idea es la misma: que no tengas que abrir nada especial, simplemente usar tus apps de siempre y dejar que la IA te eche un cable cuando hace falta.
En un iPhone, por ejemplo, verás su mano en cosas tan diferentes como Mail, Mensajes, Fotos, Safari o el modo Concentración. En un iPad gana protagonismo con el iPad Air con chip M4 y las funciones creativas. En el Mac se integra con apps de productividad y herramientas de texto, y en Vision Pro y Apple Watch se centra en notificaciones, traducción y entrenamiento inteligente.
Al final, se traduce en textos mejor escritos, imágenes generadas al vuelo, notificaciones ordenadas por importancia, traducciones automáticas y una Siri que por fin entiende lo que quieres decir incluso cuando te explicas regular.
Inteligencia visual: qué es y cómo se usa
La llamada Inteligencia Visual (Visual Intelligence) permite que el iPhone o el iPad entiendan lo que tienes delante de la cámara o lo que aparece en tu pantalla. Puedes apuntar a un monumento, a un producto, a una planta o a un cartel, y preguntarle qué es o qué puedes hacer con esa información.
Esta función se puede activar de varias formas. En algunos modelos tienes un control de cámara específico que, al mantener pulsado, analiza lo que ven los sensores y ofrece opciones contextuales: por ejemplo, convertir un cartel de un concierto en un evento de calendario o traducir al vuelo la carta de un restaurante.
También puedes usarla mediante capturas de pantalla. En lugar de guardar la captura como siempre, el sistema abre una interfaz donde puedes rodear con el dedo cualquier elemento: un texto, un objeto, una persona… y pedirle que lo busque en la web, lo traduzca o te ofrezca acciones inteligentes relacionadas.
En los modelos que lo soportan, el Botón de Acción del iPhone puede configurarse para llamar directamente a la Inteligencia Visual, de modo que con una sola pulsación accedes a todas estas capacidades sin tener que navegar por menús.
A todo esto se suma que Visual Intelligence entiende también el contenido que tienes en pantalla en cualquier app: un PDF, un documento, una web o una conversación. Basta con activar la función y podrás preguntarle cosas sobre lo que estás viendo, buscar información adicional o pasar ciertos fragmentos a ChatGPT si has habilitado esa integración.
Herramientas de escritura inteligentes y resúmenes
Uno de los apartados donde Apple Intelligence brilla es en las herramientas de escritura integradas en casi todo el sistema. Allí donde puedas escribir texto (Notas, Mail, Mensajes, Pages, algunas apps de terceros compatibles…), al seleccionar un párrafo verás la opción de usar las Herramientas de Escritura.
Estas herramientas permiten revisar ortografía, gramática y estructura, cambiar el tono del texto o reescribirlo. Puedes pedir que un mensaje suene más formal, más cercano, más conciso o más detallado. También puedes generar listas de puntos clave o transformar un ladrillo de texto en algo más cómodo de leer.
Además, puedes pedir a la IA que redacte un texto prácticamente desde cero. Le das unas pocas palabras clave (por ejemplo, «reclamar retraso vuelo Madrid», «correo jefe nueva propuesta» o «mensaje cumpleaños padre») y te sugiere un borrador completo para que lo ajustes a tu gusto.
La función de resumen va un paso más allá: a partir de correos largos, notas extensas, transcripciones o artículos, Apple Intelligence es capaz de extraer los puntos principales, crear listas de ideas clave o generar resúmenes cortos que te permitan quedarte con lo esencial sin tener que leerlo todo.
En Safari, estas capacidades se integran en el modo Lector. Cuando entras en un artículo, puedes activar la vista de lectura y pulsar en el botón Resumir para obtener un párrafo con las ideas principales. Es ideal para decidir si merece la pena leer el texto entero o para recordar de qué iba una página que estás revisando.
Transcripción de notas de voz y grabaciones
Si eres de los que lo apuntan todo con notas de audio, Apple Intelligence te lo pone muy fácil. Ahora, las grabaciones pueden transcribirse automáticamente, de modo que ves por escrito todo lo que se ha dicho en una reunión, una llamada o un pensamiento que has grabado sobre la marcha.
Lo interesante es que, una vez tienes el texto, puedes seleccionar la transcripción completa y aplicar las Herramientas de Escritura. La IA genera resúmenes, listas de puntos clave o versiones más breves para que no tengas que volver a escuchar toda la nota si no quieres.
En el caso de las llamadas (cuando la función está disponible en tu región), el sistema permite grabarlas avisando siempre a la otra persona. Al terminar, Apple Intelligence transcribe la conversación, crea un resumen e incluso puede guardar automáticamente esa información en Notas.
Generación de imágenes: Image Playground e Image Wand
Apple ha decidido que la creación de imágenes no tenga que pasar por webs externas. Con Image Playground, puedes generar imágenes en cuestión de segundos directamente desde tu dispositivo, eligiendo entre varios estilos: animación, ilustración o boceto, con una estética muy cuidada y fácil de controlar.
En lugar de depender de prompts complicados, Image Playground te deja combinar conceptos como temas, vestimentas, accesorios o fondos. Puedes ir seleccionando elementos de una lista (por ejemplo, «gato», «espacio», «traje elegante») y el modelo genera imágenes a partir de esa mezcla. También puedes escribir tus propias descripciones para afinar el resultado.
Una de las funciones estrella es Image Wand (Varita Gráfica) para Apple Pencil. Si haces un boceto rápido en una nota o en una app compatible, basta con rodearlo con un círculo usando la varita mágica y Apple Intelligence lo convierte en una imagen completa basándose en tu trazo.
Además, en algunos contextos Image Playground se puede apoyar en ChatGPT para generar variaciones de estilo o ideas adicionales, siempre dentro de la app y con tu permiso. El resultado son imágenes listas para compartir en Mensajes, Mail, redes sociales o documentos sin tener que salir del ecosistema.
Genmoji: emojis generados por IA
Los emojis llevan años formando parte del ADN del iPhone, pero Apple Intelligence añade una vuelta de tuerca con los Genmoji. Son emojis creados por IA a partir de una descripción de texto, y puedes usarlos como si fueran stickers o imágenes dentro de tus conversaciones.
Desde el teclado de emojis, verás la opción de crear nuevos emojis. Solo tienes que escribir lo que quieres («cara con rodajas de pepino en los ojos», «perro astronauta», «taza de café enfadada»…) y el sistema genera varias propuestas para que elijas la que más te guste.
La gracia está en que Apple Intelligence puede usar la información de tus contactos y tus fotos para inspirarse. Por ejemplo, puedes pedir un Genmoji basado en un amigo concreto y convertirle en astronauta, mago o cualquier personaje absurdo que se te ocurra, manteniendo el estilo visual coherente con el sistema.
Fotos: borrador mágico, búsquedas avanzadas y recuerdos
La app Fotos es uno de los puntos donde mejor se nota Apple Intelligence. Para empezar, incluye una herramienta llamada Limpiar o Clean Up, el «borrador mágico» de Apple, que permite eliminar personas u objetos no deseados de una foto con un simple gesto.
Cuando activas Limpiar en el modo de edición, dibujas alrededor del elemento que quieras quitar (una persona de fondo, una farola que molesta, una papelera…) y la IA completa esa zona con contenido generado en base al resto de la imagen. El resultado suele ser muy natural, como si eso nunca hubiera estado ahí.
En el apartado de organización, la búsqueda con lenguaje natural en Fotos es otro salto notable. Puedes escribir cosas como «fotos de María con camiseta roja», «perro en la playa en 2023» o «viaje a París con Ana» y la app te muestra las fotos y vídeos que encajan con esa descripción, combinando reconocimiento visual, fechas y personas.
La función de Recuerdos también se ha potenciado. Ahora Apple Intelligence entiende mejor lo que está pasando en las fotos y vídeos, de manera que crea montajes con un hilo narrativo más coherente. Puedes incluso describir el tipo de recuerdo que quieres («un vídeo con nuestras mejores fotos de montaña», «recuerdo de las navidades con mis padres») y dejar que la IA seleccione el contenido.
Estos recuerdos se convierten en vídeos con transiciones y música, mucho más personalizados que antes, y listos para compartir sin tener que montar nada a mano.
Traducción en tiempo real con Live Translation
Uno de los usos más potentes de Apple Intelligence es la traducción en tiempo real entre idiomas. Live Translation aprovecha los modelos integrados para romper barreras de comunicación tanto en texto como en voz.
En la app Mensajes, puedes escribir en tu idioma y ver la traducción debajo antes de enviarla. El destinatario la recibe ya traducida, y también puedes mantener pulsado sobre un mensaje recibido para traducirlo al instante a tu idioma.
En FaceTime, la IA genera subtítulos en tiempo real con traducción integrada, de modo que ves en pantalla lo que la otra persona está diciendo en su idioma original y al mismo tiempo la versión en el tuyo.
En la app Teléfono, Live Translation permite que lo que tú dices se traduzca y se lea en voz alta a la otra persona, mientras que tú ves por escrito en tu idioma lo que te están diciendo. En algunos casos, esta función se complementa con los AirPods, que también pueden reproducir las traducciones en el oído.
Siri renace con Apple Intelligence
Siri era uno de los puntos débiles del ecosistema Apple desde hace tiempo, y con Apple Intelligence ha sido reconstruida prácticamente desde cero. Cambia el diseño, cambia la forma de hablarle y, sobre todo, cambia su capacidad de entenderte y actuar entre apps. También hay una relación cada vez más estrecha entre Siri y el Apple Home Hub, que condiciona parte de su integración en el hogar.
Ahora, al invocar a Siri, verás un halo de luz que rodea la pantalla en lugar de la clásica bola animada. Esa animación indica que Apple Intelligence está activa y que el sistema está listo para entender tu petición con un lenguaje mucho más natural.
La nueva Siri entiende mejor frases imprecisas, permite que te corrijas a mitad de oración y mantiene el contexto de la conversación. Si le preguntas algo y, unos segundos después, dices «y qué hay de lo otro», será capaz de recordar a qué te referías sin que tengas que repetirlo todo.
Además, Siri tiene memoria de las interacciones recientes y contexto personal. Puede usar información de tu calendario, tu correo y otras apps para, por ejemplo, localizar el restaurante donde tienes una reserva, encontrar el correo de confirmación de un vuelo o saber a qué «Ana» te refieres cuando le pides que mande un mensaje.
Otra novedad muy esperada es que puedes escribirle a Siri en lugar de hablarle. En el iPhone, con dos toques en la parte inferior de la pantalla aparece un campo de texto y el teclado. En Mac, escribir es incluso la opción más natural. Mientras tecleas, Siri te sugiere posibles preguntas o acciones en función de lo que cree que estás intentando hacer.
La nueva versión también entiende lo que hay en la pantalla en tiempo real. Si alguien te envía una dirección por Mensajes, puedes decir «guarda esa dirección en la ficha de contacto» y sabrá de qué dirección hablas. O «manda a mi madre las fotos que hice el sábado en su casa» y se encargará de buscar, seleccionar y adjuntar el contenido correcto.
Por último, Siri se vuelve mucho más útil como guía dentro del sistema. Si no sabes cómo hacer algo en Ajustes o en una app, le puedes pedir que te explique los pasos y te los mostrará uno a uno, a veces incluso llevándote directamente a la pantalla adecuada.
Integración de Apple Intelligence con ChatGPT
Apple y OpenAI han alcanzado un acuerdo para que ChatGPT se integre de forma directa en Apple Intelligence. No sustituye a los modelos de Apple, pero actúa como apoyo cuando la IA del dispositivo considera que puede obtener una mejor respuesta recurriendo a un modelo de lenguaje más grande. Además, Apple ha realizado la compra de Q AI para impulsar su estrategia de IA y hardware.
Por ejemplo, Siri puede apoyarse en ChatGPT para consultas creativas o muy abiertas: generar una receta con los ingredientes que tienes en la nevera, revisar y reescribir un texto complejo o analizar en profundidad un documento largo. También puede pedirle a ChatGPT que ayude con estilos de imagen en Image Playground o que sugiera redacciones completas desde las Herramientas de Escritura.
La integración también llega a la Inteligencia Visual. Al analizar lo que hay en pantalla, puedes optar por hacer una pregunta y enviarla a ChatGPT para obtener explicaciones más elaboradas, siempre que tú des tu consentimiento explícito.
Es importante recalcar que no es necesario tener cuenta en ChatGPT para usar las funciones básicas integradas en el sistema. Eso sí, si dispones de una suscripción de pago, puedes vincularla para aprovechar las funciones premium directamente desde Siri y las herramientas de Apple.
En los ajustes de «Apple Intelligence y Siri» puedes activar o desactivar el acceso a ChatGPT y decidir si quieres que el sistema te pregunte cada vez o que envíe directamente ciertas consultas, según tu nivel de comodidad con el intercambio de datos.
Notificaciones, Mail y modo Reducir interrupciones
El aluvión de notificaciones es uno de los problemas de la vida digital moderna, y aquí Apple Intelligence aporta bastante orden. Para empezar, el modo de concentración Reducir interrupciones usa la IA para entender el contenido de las notificaciones y decidir cuáles requieren atención inmediata.
La idea es que un mensaje de publicidad o una simple newsletter se queden en un segundo plano, mientras que un aviso de emergencias, un mensaje sobre un problema médico o un recordatorio crítico se muestren al momento. Puedes configurar excepciones para personas o apps concretas, de forma que nunca se silencien.
En Mail, la bandeja de entrada se reorganiza en pestañas inteligentes. Tendrás una pestaña Principal para lo importante, otra de Transacciones (recibos, compras, billetes…), otra de Novedades y otra de Promociones. Apple Intelligence analiza el contenido de cada correo para clasificarlo, no solo el remitente.
Además, tanto en Mail como en Mensajes, dispones de respuestas inteligentes y resúmenes. El sistema detecta qué preguntas te han hecho en un correo o una conversación y propone borradores de respuesta centrados en los puntos clave. Si te llega un email larguísimo, puedes ver directamente un resumen con lo más importante.
Las notificaciones de voz, como el buzón de voz o las grabaciones de notas, también se benefician de resúmenes automáticos generados por Apple Intelligence, de forma que puedes revisar de un vistazo qué te han dejado sin estar escuchando audio tras audio.
Apple Intelligence en Atajos y otras apps
Los usuarios avanzados encontrarán especialmente interesante que los modelos de Apple Intelligence se puedan usar dentro de la app Atajos. Es posible crear automatizaciones que llamen a la IA para resumir texto, clasificar información, generar contenido o tomar decisiones básicas en función de lo que reciba.
También hay acciones inteligentes que se integran con Recordatorios: sugerencias de recordatorios a partir de lo que aparece en tus mensajes o correos, categorización automática por tipo de tarea y creación rápida de listas más organizadas.
En la app Cartera, algunas regiones ya disfrutan de seguimiento mejorado de pedidos, donde Apple Intelligence interpreta los correos de confirmación de compras y muestra el estado del envío de forma más clara. Y en el ámbito deportivo, el modo Workout Buddy en Apple Watch (de momento en inglés) ofrece novedades en las notificaciones del Apple Watch y comentarios y motivación más personalizados durante tus entrenamientos, también impulsados por la IA.
Disponibilidad, idiomas y regiones compatibles
Apple Intelligence empezó a desplegarse primero en Estados Unidos y solo en inglés, pero con el paso de las versiones se ha ido extendiendo a muchas más regiones e idiomas, incluida España.
Con iOS 18.4, iPadOS 18.4 y macOS Sequoia 15.4, Apple Intelligence está disponible oficialmente en España en español, y la mayoría de funciones principales ya pueden usarse en dispositivos compatibles. Algunas prestaciones avanzadas siguen en desarrollo y se van activando en actualizaciones posteriores.
En versiones posteriores como iOS 26.1, iPadOS 26.1 y macOS 26.1, las capacidades de Apple Intelligence se ofrecen en la mayoría de regiones del mundo en idiomas como alemán, chino simplificado y tradicional, coreano, danés, español, francés, inglés, italiano, japonés, neerlandés, noruego, portugués, sueco, turco y vietnamita.
En Apple Vision Pro, con visionOS 26.1, muchas funciones de Apple Intelligence están disponibles en alemán, chino (simplificado y tradicional), coreano, español, francés, inglés, italiano y japonés. En Apple Watch, con watchOS 26 y posteriores, se habilitan traducciones en tiempo real en Mensajes, resúmenes de notificaciones y el modo Workout Buddy cuando el reloj está enlazado con un iPhone compatible cercano.
Hay matices importantes: de momento, las prestaciones de Apple Intelligence no funcionan en dispositivos comprados en China continental, ni tampoco si tu Cuenta de Apple está configurada en esa región, aunque el hardware sea compatible. Apple ha indicado que, cuando la función llegue oficialmente al país, los dispositivos anteriores podrán activarla.
Dispositivos compatibles con Apple Intelligence
Apple Intelligence exige bastante a nivel de hardware. Solo funciona en dispositivos con chips recientes y suficiente memoria, porque buena parte del procesamiento se realiza de forma local en el propio equipo.
En la gama iPhone, la compatibilidad incluye los iPhone 15 Pro y 15 Pro Max, toda la familia iPhone 16 y los modelos posteriores que vayan saliendo. En años siguientes, Apple ha ampliado el soporte a generaciones como iPhone 17, manteniendo la línea de exigir procesadores potentes.
En iPad, se necesitan modelos con chip M1 o superior, además de ciertos iPad mini con A17 Pro o M1 en adelante. En Mac, la condición es la misma: dispositivos con chip M1 o posteriores (MacBook Air, MacBook Pro, iMac, Mac mini, Mac Studio y Mac Pro con M2 Ultra).
Apple Vision Pro también entra en el grupo de productos compatibles, y en el caso del Apple Watch, los Series 6 en adelante, todos los Apple Watch Ultra y el Apple Watch SE de segunda generación o posteriores pueden aprovechar algunas funciones cuando están enlazados con un iPhone compatible cercano.
Además del hardware, hay requisitos de software: iOS 18.1 o superior (y en muchas funciones iOS 18.4 en adelante), iPadOS 18.1 o superior, macOS Sequoia 15.1 o superior, visionOS 2.4 o superior y watchOS 11 o superior. También se recomienda contar con al menos 7 GB de almacenamiento libre en el dispositivo (no aplica al Apple Watch) para descargar los modelos.
Cómo activar Apple Intelligence en tu dispositivo
Para empezar a usar Apple Intelligence, lo primero es actualizar el dispositivo a la última versión disponible de su sistema operativo. En iPhone y iPad, ve a Ajustes > General > Actualización de software; en Mac, a Ajustes del Sistema > General > Actualización de software.
Una vez actualizado, verás una sección llamada «Apple Intelligence y Siri» en Ajustes. Desde ahí puedes activar la función tocando el interruptor junto a Apple Intelligence o usando la opción «Activar Apple Intelligence», según la versión que tengas y si ya la habías configurado antes.
El sistema puede necesitar descargar modelos adicionales en segundo plano. Para acelerar el proceso, conviene mantener el dispositivo conectado a una red Wi‑Fi y enchufado a la corriente. Puedes comprobar el progreso en Ajustes > Apple Intelligence.
Hay otros requisitos que no debes pasar por alto: el idioma de Siri y el del dispositivo deben coincidir y estar configurados en un idioma compatible. Si cambias el idioma de Siri, puede que Apple Intelligence tarde un rato en volver a estar disponible hasta que se descargue el nuevo paquete lingüístico.
Si decides desactivar Apple Intelligence desde los ajustes, los modelos descargados se eliminan del dispositivo. Siempre puedes volver a activarla más adelante siguiendo el mismo proceso.
Disponibilidad de funciones concretas según plataforma
Con las versiones más nuevas de iOS, iPadOS y macOS, Apple ha ido desplegando un catálogo muy amplio de prestaciones concretas basadas en Apple Intelligence, algunas disponibles en todas las plataformas y otras limitadas a ciertos dispositivos.
En iPhone, iPad y Mac con las versiones actuales, puedes usar traducción en tiempo real en Mensajes, Teléfono y FaceTime, limpieza en Fotos, Genmoji, Image Playground, Varita Gráfica (en iOS y iPadOS), Herramientas de Escritura, mejoras de Siri (voz más natural, más contexto, escritura a Siri), integración con ChatGPT, acciones inteligentes y modelos de IA en Atajos, respuestas inteligentes y resúmenes en Mail y Mensajes, resúmenes de notificaciones, del buzón de voz y de transcripciones de notas, búsqueda en lenguaje natural en Fotos, creación de recuerdos en vídeo, recordatorios sugeridos, categorización automática en Recordatorios, modo Reducir interrupciones, gestión inteligente de notificaciones en Concentración, mensajes prioritarios en Mail, fondos generados en Mensajes y algunas funciones específicas como seguimiento avanzado de pedidos en Cartera en regiones concretas.
En iPhone, la Inteligencia Visual permite interactuar con texto en pantalla, identificar lugares, plantas y animales, convertir carteles en eventos de calendario, lanzar búsquedas en Google u otras apps y, si lo has activado, realizar consultas a ChatGPT sobre lo que aparece en la pantalla.
En Apple Vision Pro, muchas de estas funciones se centran en Genmoji, Image Playground, Varita Gráfica, Herramientas de Escritura (incluida la opción de redactar con ChatGPT), respuestas inteligentes y resúmenes en Mail y Mensajes, resúmenes de notificaciones y notas transcritas, creación de recuerdos de Fotos, búsqueda en lenguaje natural en la fototeca y el modo Reducir interrupciones.
En Apple Watch, enlazado con un iPhone compatible, destacan Workout Buddy, la traducción en tiempo real en Mensajes y los resúmenes de notificaciones, que se apoyan en Apple Intelligence para darte justo la información que necesitas sin tener que sacar el móvil del bolsillo.
Cómo usa la IA de Apple la información y qué supone para el usuario
El hecho de que Apple Intelligence esté tan integrada en el sistema implica que tiene acceso a grandes cantidades de información personal: correos, mensajes, fotos, calendario, llamadas, etc. Ahí está precisamente el gran reto para Apple: equilibrar el enorme potencial de la IA con la confianza del usuario.
Mientras otras empresas han optado por modelos centralizados en la nube con gran capacidad de cómputo, Apple ha elegido el camino de maximizar el procesamiento local y recurrir a su nube privada solo cuando es indispensable, intentando reducir al mínimo el flujo de datos hacia terceros.
Esta estrategia hace que Apple Intelligence no compita directamente con gigantes como ChatGPT, Gemini o Claude en cuanto a potencia general de modelo, pero sí en algo que muchas personas valoran más: una integración estrecha con el dispositivo y un enfoque radical en la privacidad y la personalización.
Para quien ya vive dentro del ecosistema de la marca, Apple Intelligence supone un salto importante en cómo se escribe, se organiza la información, se gestionan las notificaciones y se habla con Siri. Si Apple consigue mantener las promesas de privacidad y seguir mejorando las capacidades de la IA, es probable que esta «inteligencia personal» pase de ser un añadido curioso a convertirse en una parte imprescindible del uso diario de sus dispositivos. Además, Apple explora la detección avanzada de problemas de salud, un área que puede influir en cómo se gestionan avisos médicos.