Durante años, Siri ha sido una presencia constante pero discreta en el ecosistema de Apple. Siempre disponible, rara vez decisiva. Con iOS 26.4, esa relación empieza a cambiar. No por una función concreta ni por un nuevo comando llamativo, sino por una transformación silenciosa que afecta a su forma de entender lo que se le pide. Apple no presenta un asistente nuevo, pero sí uno distinto en su comportamiento, su arquitectura y su ambición práctica.

Un cambio de base que altera cómo funciona Siri

Hasta ahora, Siri operaba como una cadena de tareas independientes. Identificaba una orden, extraía datos concretos y ejecutaba acciones puntuales a través de APIs o aplicaciones del sistema. Ese enfoque funcionaba para recordatorios, temporizadores o ajustes rápidos, pero mostraba límites evidentes cuando la petición requería contexto, continuidad o varios pasos encadenados.

Con iOS 26.4, Apple introduce un núcleo basado en modelos de lenguaje de gran tamaño (LLM) que actúa como eje central del asistente. No se trata de convertir Siri en un chatbot conversacional al estilo de otros servicios del mercado, sino de dotarla de capacidad de comprensión real. Ahora, el sistema puede interpretar matices, referencias indirectas y relaciones entre elementos sin depender de comandos rígidos.

Este rediseño interno coloca a Siri en una posición distinta dentro del sistema operativo. Ya no traduce únicamente voz a texto para buscar palabras reconocibles, sino que razona sobre la intención del usuario antes de decidir cómo responder.

Cuando Siri empieza a entenderte: contexto personal, pantalla y apps en juego

El impacto más visible de este cambio llega con tres pilares que Apple ya había anticipado dentro de Apple Intelligence y que empiezan a materializarse aquí.

El primero es el contexto personal. Siri puede acceder a correos, mensajes, archivos o fotos para localizar información concreta cuando se le solicita. Preguntas como “¿Dónde está el documento que me envió Eric la semana pasada?” dejan de ser un ejercicio de suerte y pasan a resolverse con mayor precisión.

El segundo pilar es la conciencia de pantalla. Siri puede interpretar lo que el usuario está viendo y actuar en consecuencia. Añadir una dirección recibida por mensaje a un contacto, reenviar una imagen abierta o interactuar con contenido visible deja de requerir pasos manuales.

Por último, llega una integración más profunda entre aplicaciones, que permite acciones encadenadas. Editar una foto y enviarla, mover archivos entre apps o compartir una ruta con tiempo estimado son ejemplos que Apple ya ha puesto sobre la mesa.

Todo esto no convierte a Siri en un asistente conversacional continuo, pero sí en uno más flexible y coherente en el uso diario.

Por qué este cambio llega ahora y no antes

El movimiento no es casual ni inmediato. En una reunión interna celebrada en agosto de 2025, Craig Federighi reconoció que Apple había intentado unir dos sistemas distintos: el Siri tradicional y un modelo basado en lenguaje. El resultado no fue satisfactorio. La arquitectura no lo permitía.

La solución pasó por rehacer el asistente desde cero alrededor de un único modelo central. Ese proceso ha permitido a Apple ofrecer un rediseño más amplio de lo inicialmente anunciado para iOS 18, tras un retraso que llegó a generar demandas por parte de usuarios que compraron dispositivos esperando esas funciones.

En paralelo, Apple firmó un acuerdo plurianual con Google para utilizar un modelo desarrollado junto al equipo de Google Gemini, mientras continúa trabajando en sus propias soluciones internas. La privacidad sigue siendo un elemento central: parte del procesamiento se mantiene en el dispositivo y el resto se gestiona mediante Private Cloud Compute con datos anonimizados.

Un punto de inflexión medido

iOS 26.4 no convierte a Siri en lo que será en el futuro, pero sí marca un antes y un después en su trayectoria. Apple opta por un avance controlado, centrado en utilidad real y no en demostraciones espectaculares. El verdadero salto conversacional queda reservado para iOS 27, donde la compañía ya ha confirmado un Siri con interacción continua.

Para Apple, este rediseño no es solo técnico. Es una corrección de rumbo tras un tropiezo público, una reorganización interna y un mensaje al mercado: el asistente vuelve a importar. Y esta vez, con una base que permite crecer sin repetir errores.

Puedes seguir a HardwarePremium en FacebookTwitter (X)InstagramThreadsBlueSky Youtube. También puedes consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.

FAQ

¿Cuándo llega iOS 26.4 con el nuevo Siri?

Apple prevé su lanzamiento en primavera de 2026, tras un periodo de pruebas a partir de marzo.

¿Siri funcionará como ChatGPT o Gemini?

No. Mantiene una interfaz por voz sin conversación continua, aunque con mejor comprensión.

¿Qué dispositivos serán compatibles?

Aquellos compatibles con Apple Intelligence, aunque algunas funciones podrían variar.

¿Apple usa modelos propios o de terceros?

Actualmente, emplea un modelo desarrollado junto a Google Gemini, con planes internos a largo plazo.

¿Habrá más cambios en el futuro?

Sí. Apple ya ha confirmado un Siri conversacional completo para iOS 27.