Apple lleva años intentando que Siri deje de sonar como una asistente torpe. Y, según un nuevo informe, la solución no viene de Cupertino, sino de Mountain View. La próxima versión de Siri, prevista para iOS 26.4 en primavera de 2026, funcionará parcialmente gracias a modelos de lenguaje Gemini de Google. Sin embargo, Apple nunca lo reconocerá públicamente.

Apple y Google: aliados en la sombra por una Siri más inteligente

Según Mark Gurman, Apple ha encontrado en los modelos Gemini de Google la pieza que faltaba. Finalmente, Siri se sentirá moderna.

En la práctica, gran parte de la nueva arquitectura de la asistente está basada en tres módulos principales: planificador de consultas, buscador de conocimiento y resumidor. Estos funcionarán sobre servidores de Apple, pero con tecnología Gemini operando bajo el capó.

La compañía utilizará lo que denomina Private Cloud Compute. Este es un sistema cerrado que garantiza que los datos personales del usuario nunca salgan de su entorno cifrado. Así, Apple podrá beneficiarse de la potencia de Gemini sin comprometer su narrativa de privacidad, un pilar esencial de su marca.

La nueva Siri podrá procesar órdenes más complejas, como “encuéntrame el libro que me recomendó mamá” o “resume los correos de hoy que mencionan la reunión de diseño”. Todo ello será posible combinando el contexto local del dispositivo con la capacidad generativa de los modelos externos.

O, dicho de otro modo: Gemini hará el trabajo duro; Siri pondrá la voz y la cara.

Un acuerdo pragmático que redefine el futuro de Apple Intelligence

El detalle más llamativo no es el uso de Gemini, sino cómo Apple piensa ocultarlo. La compañía no promocionará la alianza, ni mencionará a Google en ninguna comunicación oficial. Todo se presentará bajo el paraguas de Apple Intelligence, su suite de IA generativa nativa.

Es un movimiento práctico más que ideológico. Apple sabe que sus propios modelos fundacionales aún no están al nivel de Gemini o GPT-4. Necesita ganar tiempo mientras refina su tecnología. En paralelo, seguirá procesando los datos personales del usuario en local mediante sus propios algoritmos, sin depender de terceros.

La jugada recuerda al modelo de Galaxy AI en los móviles Samsung, donde buena parte de las funciones “propias” también son impulsadas por Gemini.

Pero a diferencia de Samsung, Apple planea envolver la experiencia con su sello visual y su capa de privacidad. Para el usuario, todo seguirá siendo “Siri”, aunque en realidad una parte de su cerebro venga prestada de Google.

El lanzamiento se espera para marzo o abril de 2026. Será junto con el nuevo smart display de Apple y una oleada de funciones avanzadas de IA. Estas funciones conectarán iPhone, Mac y HomePod bajo un mismo ecosistema inteligente.

Puedes seguir a HardwarePremium en FacebookTwitter (X)InstagramThreads, BlueSky o Youtube. También puedes consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.