- Apple está rediseñando Siri apoyándose en Apple Intelligence y modelos como Gemini, con un despliegue escalonado en iOS 26.4, 26.5 y 27.
- Las primeras mejoras clave son el contexto personal, la conciencia de pantalla y las acciones entre apps mediante App Intents.
- La hoja de ruta culmina en una Siri tipo chatbot capaz de conversaciones largas, generación de contenido y control profundo del sistema.
- Privacidad estricta y compatibilidad limitada a dispositivos recientes marcarán qué usuarios podrán aprovechar al máximo el nuevo Siri.

Si alguna vez has pensado que Siri se había quedado atrás frente a ChatGPT o Gemini, no eres el único. Durante años, el asistente de Apple ha sido muy útil para tareas rápidas, pero corto de miras cuando le pedimos algo más complejo, especialmente si lo comparamos con los chatbots de última generación.
Ahora estamos ante un punto de inflexión: Apple está reinventando Siri apoyándose en Apple Intelligence y en modelos como Google Gemini, con una hoja de ruta que se despliega en varias versiones de iOS (26.4, 26.5 y 27) y que afecta también a iPadOS, macOS y CarPlay. No es un cambio menor: toca privacidad, arquitectura interna, forma de usar el iPhone y hasta la relación de Apple con otros gigantes de la IA.
Qué es Siri hoy y por qué Apple la está rediseñando
Siri nació como un asistente virtual exclusivo del ecosistema Apple, disponible en iOS, macOS, watchOS y tvOS. Utiliza procesamiento de lenguaje natural para entender lo que le pides, contactar con servicios web y devolverte una respuesta o ejecutar una acción: poner una alarma, enviar un mensaje, crear una nota o consultar el tiempo.
En sus orígenes, Siri fue un proyecto del SRI International (SRI Venture Group), derivado de un programa de investigación de DARPA llamado CALO, calificado como uno de los proyectos de inteligencia artificial más ambiciosos de su momento. En 2010 Apple compró la empresa detrás de Siri, canceló sus planes para Android y Blackberry, e integró el asistente de forma nativa en el iPhone 4S en 2011.
Desde entonces, Siri se ha ampliado a más idiomas, más países y más plataformas: llegó al iPad, al Apple Watch, al Apple TV y al Mac (con macOS Sierra en 2016). Con iOS 6 mejoró la integración con apps como Mapas o Recordatorios, añadió compatibilidad con coches vía Bluetooth y funciones como «Eyes Free», pensadas para usar Siri desde los mandos del volante.
El asistente se apoya en un ecosistema de servicios externos que alimentan sus respuestas: OpenTable o Yelp para restaurantes, MovieTickets o RottenTomatoes para cine, True Knowledge, Bing Answers o Wolfram Alpha para datos de referencia, además de Bing y Google para la web. Todo ello le permite contestar preguntas, hacer reservas o darte información contextual.
A nivel práctico, Siri siempre ha sido un asistente muy útil para tareas concretas: consultar el tiempo, encontrar un restaurante cerca, crear citas, dictar mensajes, buscar en la web o abrir apps. Incluso tiene su vertiente más lúdica con chistes, raps, historias y respuestas curiosas que se han hecho populares entre los usuarios.

Pero frente a competidores como Asistente de Google, Amazon Alexa o Samsung Bixby, y más recientemente los grandes modelos de lenguaje como ChatGPT, Gemini o Claude, Siri ha ido acusando ciertas limitaciones: un sistema relativamente cerrado, integración parcial con apps de terceros y una sensación de estancamiento en la parte conversacional.
Privacidad y diseño: el asistente más discreto del ecosistema
Uno de los pilares que Apple repite continuamente es que Siri está diseñada para ser un asistente muy personal pero extremadamente discreto. El sistema aprende tus rutinas y preferencias, pero lo hace de forma que lo que le pides no se asocia a tu cuenta de Apple como un identificador directo.
Gracias al Neural Engine de sus chips, mucho del procesamiento de voz y lenguaje se realiza directamente en el dispositivo —iPhone, iPad o Apple Watch—. El audio de tus peticiones no abandona el terminal salvo que des permiso explícito para compartirlo, y Apple remarca que las conversaciones con Siri no se utilizan con fines publicitarios.
Sobre esta base construye su visión de Apple Intelligence y Private Cloud Compute: modelos que corren en el propio dispositivo para peticiones normales y, cuando hace falta más potencia, se apoyan en servidores diseñados con una capa extra de privacidad. Según Craig Federighi, la idea es que cuando un modelo recibe tu pregunta, los datos se mantengan privados y no se almacenen ni se usen para entrenar modelos de terceros.
Este enfoque, que a veces ralentiza el desarrollo de funciones basadas en datos personales, también explica parte de los retrasos: proteger al máximo la privacidad complica mucho el acceso de Siri a tu información personal, como mensajes, correos o archivos, justo lo que hace falta para que sea realmente «inteligente» en el día a día.
Cómo se activa Siri hoy en iPhone, iPad, Mac, Apple Watch y CarPlay
Más allá de la nueva IA, la forma de invocar a Siri sigue siendo clave para usarla sin fricción. Apple ofrece distintos métodos según el dispositivo y tus ajustes de accesibilidad.
En iPhone, después de configurar el asistente, puedes invocarlo con la voz diciendo “Siri” u “Oye Siri”. También puedes mantener pulsado el botón lateral en modelos con Face ID o el botón de inicio en modelos más antiguos. Si llevas EarPods con cable, basta con mantener pulsado el botón central; con CarPlay, puedes usar el botón de comandos de voz del volante o el botón de inicio en la pantalla de CarPlay.
En el Apple Watch, especialmente a partir de Series 3, tienes varias opciones: levantar la muñeca cerca de la boca y hablar, mantener pulsada la Digital Crown o usar el comando de voz si has activado la escucha permanente. En Mac con chip de Apple, también puedes decir “Siri” u “Oye Siri” o utilizar el icono dedicado en la barra de menús, además de atajos de teclado configurables.
Para quien prefiere escribir, existe la función “Escribir a Siri” dentro de Accesibilidad. Se activa desde Ajustes > Accesibilidad > Siri, donde puedes habilitar Escribir a Siri en iPhone o iPad. Una vez activada, basta con mantener pulsado el botón de Siri y redactar tu petición, algo especialmente útil en entornos donde no quieres hablar en voz alta.
Cuando usas un botón físico para abrir Siri, la respuesta de voz se adapta al modo Silencio del iPhone: si está activado, el asistente responde de manera silenciosa; si no lo está, habla en voz alta. Si lo invocas con la voz, Siri suele responder en alto, aunque puedes ajustar este comportamiento en los ajustes del asistente.
CarPlay, chatbots de terceros y el papel de Siri en el coche
Hasta ahora, el coche era territorio prácticamente exclusivo de Siri. En CarPlay, el único asistente controlable por voz era el de Apple, con pequeñas excepciones como algún campo de búsqueda por voz en apps de mapas. Eso está a punto de cambiar.
Apple trabaja para que aplicaciones de inteligencia artificial con modo de voz, como ChatGPT, Gemini o Claude, puedan tener su propia app en CarPlay. La idea es que puedas ir conduciendo, plantearte una duda de trabajo o preguntar por un pueblo por el que pasas y hablar con uno de estos chatbots sin soltar el volante.
Sin embargo, la compañía pone límites muy claros: no podrás sustituir el botón de Siri en el volante ni usar una palabra de activación tipo “Hey ChatGPT” u “Ok Google”. Siri seguirá siendo el único asistente oficialmente integrado para el control del sistema a nivel de coche.
En la práctica, esto significa que para usar un chatbot de terceros tendrás que abrir antes su aplicación en CarPlay. Los desarrolladores podrán hacer que el modo de voz se active automáticamente al abrir la app, pero siempre habrá ese paso previo de tocar la pantalla. Además, estos chatbots no podrán controlar funciones del coche ni del iPhone: se centrarán en responder preguntas complejas, no en activar luces, cambiar música del sistema o lanzar llamadas del dispositivo fuera de su propia app.
Mientras tanto, Apple prepara sus propias mejoras: con iOS 26.4 Siri pasará a apoyarse en un modelo Gemini de Google dentro de la infraestructura de Apple y, más adelante, con iOS 27, planea ofrecer un asistente totalmente conversacional que compita directamente con ChatGPT, Gemini y Claude.
Hoja de ruta: de iOS 26.4 y 26.5 a una Siri tipo chatbot en iOS 27
Apple lleva tiempo encadenando anuncios y retrasos en torno a la nueva Siri. En la WWDC de 2024 presentó Apple Intelligence y un Siri mucho más potente, capaz de usar datos personales, entender la pantalla y controlar apps de manera avanzada, con una promesa inicial de llegada a principios de 2025.
Sin embargo, la compañía fue aplazando el lanzamiento: primero lo movió a 2026, sin dar fechas concretas, y más tarde vinculó internamente el estreno a iOS 26.4, una actualización de primavera que históricamente ha traído cambios importantes (como las 16.4, 17.4 y 18.4).
Según diversas filtraciones, entre ellas las de Bloomberg y Mark Gurman, el plan actual pasa por un despliegue por fases entre iOS 26.4, iOS 26.5 y iOS 27. La idea: usar 26.4 como base estructural, 26.5 como ampliación aún en pruebas de varias funciones clave y 27 como gran escaparate comercial con la Siri completamente chatbot.
En las últimas semanas de pruebas internas, sin embargo, han aparecido problemas importantes: lentitud, errores de precisión, incapacidad para manejar bien consultas complejas y un bug especialmente molesto que hace que Siri interrumpa al usuario si habla demasiado rápido. Además, en ocasiones el asistente delega tareas sencillas en su integración con ChatGPT cuando debería poder resolverlas por sí mismo.
Estos contratiempos han obligado a Apple a plantearse retrasar parte de las funcionalidades previstas para iOS 26.4 hasta iOS 26.5 o incluso iOS 27. Los propios empleados que prueban las versiones internas han reconocido que, a finales de 2025, el sistema era tan lento que parecían inevitables varios meses extra de trabajo.
Qué traerá iOS 26.4 a Siri: contexto personal, pantalla y acciones en apps
iOS 26.4 se presenta como una actualización estructural que pone los raíles técnicos del nuevo Siri, más que como el gran titular de marketing. Apple prepara la primera beta para desarrolladores para la semana del 23 de febrero, una beta pública poco después y un lanzamiento final entre finales de marzo y principios de abril.
La gran novedad es que Apple Intelligence empieza a llegar de verdad a Siri en tres frentes: comprensión del contexto personal, conciencia de lo que hay en pantalla y acciones en y entre aplicaciones a través del framework App Intents.
En primer lugar, el contexto personal permite que Siri tenga algo parecido a memoria a corto plazo y pueda entender pronombres, referencias vagas y datos que ya residen en tu dispositivo: conversaciones de Mensajes o WhatsApp, eventos de Calendario, correos de Mail o notas recientes.
En segundo lugar, la conciencia de pantalla hará posible referirte a “esto”, “ese archivo” o “este mensaje” sin copiar y pegar o explicar todo desde cero. El sistema sabrá qué contenido es relevante en la app que estás usando y podrá actuar sobre él, siempre que la aplicación exponga bien la información a través de las APIs adecuadas.
Por último, App Intents pasará de estar oculto detrás de Atajos a ser el lenguaje con el que las apps se conectan con Siri. Cada desarrollador define qué sabe hacer su aplicación (crear tareas, modificar reservas, enviar mensajes internos, procesar pagos, etc.) y el sistema puede encadenar estas acciones a partir de una orden en lenguaje natural.
Funcionalidades que podrían retrasarse a iOS 26.5
Pese a que parte de estas capacidades estaban pensadas para iOS 26.4, las pruebas recientes apuntan a que algunas llegarán en forma limitada o en modo “vista previa” en iOS 26.5. Apple ha instruido a sus ingenieros para probar las nuevas funciones de Siri sobre builds internas de 26.5, lo que sugiere un aplazamiento parcial.
Una de las características en el aire es la capacidad ampliada de Siri para acceder a datos personales profundos. El objetivo: que puedas pedirle algo como “encuentra el podcast que me pasó Marcos por mensaje hace unos meses y reprodúcelo” y que el asistente localice ese enlace en tus conversaciones antiguas y lo lance directamente.
Las versiones internas de iOS 26.5 incluyen un botón que activa una vista previa de estas funciones avanzadas, con la idea de avisar al usuario de que se trata de algo experimental, susceptible de fallar o de cambiar, al estilo de las betas públicas del sistema.
También se retrasan comandos más potentes para controlar acciones dentro de las apps, apoyados en App Intents. El ejemplo típico sería decir “busca una foto, retócala y mándasela a Laura”, y que Siri sea capaz de localizar la imagen, aplicar una edición básica y compartirla, todo con una única orden.
Los empleados que están probando iOS 26.5 comentan que hay soporte inicial para estas funciones, pero su fiabilidad todavía deja que desear. De ahí que Apple se plantee lanzarlas como preview, manteniendo las expectativas controladas mientras recoge datos de uso y errores.
La gran apuesta: Siri como chatbot en iOS 27 y el proyecto “Campo/Campos”
Más allá de 26.4 y 26.5, el gran salto comercial llegará con iOS 27, iPadOS 27 y macOS 27, que estrenarán una Siri reconvertida en chatbot con nombre en clave “Campo” o “Campos”. La idea es sustituir la interfaz actual por una experiencia de chat integrada en todo el sistema, accesible tanto por voz como por texto.
Este nuevo Siri-chatbot será capaz de sostener conversaciones largas al estilo ChatGPT, con un hilo continuo donde podrás pedirle resúmenes, generación de textos, creación de imágenes, búsquedas web avanzadas y gestión de tareas complejas sin salir de la conversación.
A nivel técnico, la arquitectura se basa en la plataforma Apple Foundations Models, que ahora incorpora tecnología del equipo Google Gemini. Parte del procesamiento se hará en los propios dispositivos (sobre todo en iPhone y Mac con chips recientes) y otra parte en centros de datos con chips diseñados por Apple, dentro del proyecto Baltra, enfocado a procesamiento de IA en la nube.
La compañía también experimenta con una app independiente para gestionar las interacciones previas con el chatbot, algo similar a un historial que puedas revisar, editar o reutilizar para nuevas tareas. Desde aquí se podrá, por ejemplo, recuperar una conversación en la que generaste un documento o una imagen y continuar el hilo.
Una parte clave de esta Siri de nueva generación será el control profundo de funciones del sistema y el acceso seguro a datos personales: archivos, correos, eventos, contactos, notas y más. Apple quiere que puedas pedirle que reorganice tu día, revise documentos, consulte información importante y actúe en aplicaciones como Mail, Calendario o Safari con órdenes de alto nivel.
Apple, Google y el acuerdo en torno a Gemini
La transformación de Siri no se entiende sin la alianza estratégica entre Apple y Google para integrar Gemini en Apple Intelligence. Este acuerdo, que se hizo visible a comienzos de año, es clave para dotar de músculo generativo al asistente y a otras funciones de iOS.
Curiosamente, la comunicación pública del pacto ha sido bastante asimétrica: el anuncio aparece principalmente en los canales de Google, mientras que en los espacios oficiales de Apple apenas se detalla. El acuerdo existe, pero la visibilidad está más del lado de Alphabet, lo que ha despertado preguntas entre analistas e inversores.
En una conferencia con inversores de Alphabet, el analista Ken Gawrelski preguntó explícitamente sobre cómo encaja este tipo de acuerdos con socios como Apple, en un contexto donde la utilidad dentro de la plataforma y la IA generativa pueden pesar más que los clics tradicionales de búsqueda. La respuesta de Philipp Schindler se centró en el rendimiento general de la búsqueda y la integración de IA, pero esquivó dar detalles concretos sobre el trato con Apple.
En la llamada con inversores de Apple, Tim Cook fue algo más directo en lo tecnológico, pero igual de evasivo en lo contractual. Defendió que la IA de Google ofrece una base muy capaz para los Apple Foundation Models y que juntos desbloquearán experiencias clave, pero dejó claro que no se revelarán los términos del acuerdo.
Para los inversores, estas conferencias de resultados se han convertido en una ventana crucial para entender hasta dónde llegan las explicaciones sobre acuerdos que pueden afectar a producto, estrategia y facturación. Aunque las compañías eviten los detalles, la presión por obtener claridad va a más conforme la IA se vuelve el centro de su propuesta de valor.
Impacto de este reinicio de Siri en el ecosistema y los usuarios
El relanzamiento de Siri no es solo una cuestión de prestigio tecnológico: Apple se juega parte del valor percibido del iPhone y de su ecosistema. Los iPhone representan ya alrededor del 20% de las ventas mundiales de smartphones y un 25% de la base instalada global, con unos 1.500 millones de usuarios activos de iPhone.
En mercados como España, iOS ronda el 28-29% de cuota móvil y Apple es el primer fabricante por parque activo, por delante de Samsung. Cada mejora real en Siri equivale a millones de personas que pueden exprimir mejor un dispositivo que ya pagaron, sin necesidad de renovar hardware.
No obstante, las funciones más avanzadas de Apple Intelligence y del nuevo Siri estarán restringidas a modelos recientes, como ya ocurrió con la primera oleada, limitada a iPhone 15 Pro, iPhone 16 y Macs con chip M1 o superior. Esto deja fuera a un porcentaje notable del parque, en torno al 20-30% según algunos analistas.
Ese cuello de botella cumple un doble papel: puede incentivar la renovación de dispositivos en un mercado maduro, pero también generar frustración entre quienes vean que “su” Siri no se parece a la que Apple muestra en las presentaciones. La sensación de estar usando una versión recortada del asistente puede pesar en la percepción de marca.
En paralelo, el retraso acumulado llega en el peor momento posible: mientras el mundo se acostumbra a interactuar con ChatGPT, Gemini o Claude, el asistente nativo del iPhone ha seguido funcionando, en gran medida, como en 2016. Cada mes de retraso se produce sobre una base de cientos de millones de dispositivos activos.
Ejemplos reales de uso con el nuevo Siri
Para aterrizar todo este despliegue técnico, conviene imaginar cómo cambiará el día a día con el nuevo Siri bajo iOS 26.4 y, más adelante, 27. Aquí van tres escenas muy concretas.
Primero, piensa en una reunión complicada: tienes un correo con un contrato abierto y un chat con tu abogada. Con iOS 26.4 podrías decir algo como: “Siri, mueve esta reunión con Ana al primer hueco que tengamos por la tarde y reenvíale el contrato”. El sistema tirará de contexto personal (quién es Ana), calendario y contenido en pantalla para hacer los cambios y enviar el documento correcto.
Con iOS 27, la misma situación se vuelve más rica: Siri podría proponerte alternativas, sugerir añadir al responsable de Compliance, redactar un correo con matices legales y preguntarte si quieres guardar una versión del contrato modificada, todo en una conversación continua con el chatbot.
Segundo ejemplo: un viaje de trabajo con cambios de última hora. Billetes en Wallet, reservas en PDF dentro de Archivos y reuniones en Calendario. En 26.4, podrías pedir: “Aplaza todas las reuniones del jueves al viernes, avisa a quienes estén afectados y cambia la vuelta al primer vuelo del sábado por la mañana”. Siri tendría que coordinar App Intents de la aerolínea, tu calendario y apps de mensajería para ejecutar ese paquete de acciones.
En 27, el asistente podría ir un paso más allá: replantear el viaje entero, sugerir hoteles alternativos, recalcular el presupuesto y prepararte un resumen listo para Finanzas, todo sin salir del hilo de conversación donde vas aprobando cada cambio.
Tercer escenario: un día saturado de información dispersa. Estás leyendo un informe macro en Safari, recibes un estudio de mercado por correo y acumulas ideas para una presentación en Notas. En 26.4, podrás decir: “Siri, crea una nota con las ideas clave de esto y ponme un recordatorio mañana a las 8 para revisarlo”, y el sistema usará la conciencia de pantalla y el contexto personal para capturar el contenido relevante.
Con la versión chatbot de 27, podrás pedirle que resuma ambos documentos, cruce datos, genere un esquema de presentación y te proponga varios titulares para compartirlos directamente con tu equipo, todo dentro de un único flujo conversacional donde vas refinando el resultado.
Mirando el conjunto, la nueva etapa de Siri combina una apuesta agresiva por la IA generativa con una defensa férrea de la privacidad, apoyándose en modelos propios, en la alianza con Google Gemini y en un rediseño profundo de cómo las apps se exponen al sistema; si Apple acierta en la ejecución y logra que desarrolladores y usuarios se suban al carro, el asistente que durante años ha sido “para cosas sencillas” puede convertirse, por fin, en la capa que orquesta casi todo lo que haces con tu iPhone, tu iPad, tu Mac y hasta tu coche.