El nombre de una tecnología rara vez cambia sin motivo. Cuando lo hace, suele anticipar un giro de fondo. Apple planea presentar en la WWDC 2026 un nuevo marco de desarrollo llamado Core AI que sustituirá al veterano Core ML en iOS 27. No es solo una actualización semántica. Es un mensaje dirigido tanto a desarrolladores como al mercado: la inteligencia artificial ya no es un complemento, es el eje de la plataforma.
Un cambio de nombre que revela un cambio de enfoque
Core ML ha sido durante años la base sobre la que los desarrolladores integraban modelos de aprendizaje automático en apps para iPhone, iPad y Mac. Permitía ejecutar inferencias en local y aprovechar el hardware de Apple para tareas de reconocimiento de imagen, texto o voz.
Sin embargo, el término “machine learning” ha quedado limitado frente a la amplitud actual del concepto de inteligencia artificial. Core AI nace con una ambición más amplia: facilitar la integración de modelos externos y capacidades generativas modernas sin que cada desarrollador tenga que construir su propia infraestructura desde cero.
El movimiento encaja con lo que se espera de iOS 27, una versión que debería marcar una etapa distinta en la estrategia de Apple en IA. El objetivo no cambia en esencia —dar herramientas para integrar modelos en apps—, pero sí el alcance. Se espera mayor compatibilidad con arquitecturas generativas y flujos híbridos entre procesamiento en dispositivo y servicios externos.
En paralelo, Apple sigue trabajando en mejoras inmediatas para el ciclo actual de software. La actualización iOS 26.5 podría introducir novedades relevantes en Siri y Apple Intelligence, en colaboración con modelos de Google como Gemini. Esa transición intermedia anticipa el terreno sobre el que Core AI deberá operar con mayor coherencia.
Qué puede significar para desarrolladores y usuarios
Para quienes crean aplicaciones, el impacto puede ser notable. Un marco más unificado permitiría integrar funciones de generación de texto, resumen automático, análisis de imágenes o asistentes contextuales con menos dependencia de soluciones externas. Si Apple simplifica la conexión con modelos de terceros, el coste de desarrollo bajará y el tiempo de implementación se reducirá.
Eso se traduciría en apps con funciones más inteligentes de forma natural: edición fotográfica con sugerencias en tiempo real, asistentes de productividad integrados en herramientas de oficina o experiencias educativas que adapten el contenido según el uso.
Para el usuario final, el cambio no se medirá por el nombre del framework, sino por el resultado. Si Core AI cumple lo previsto, iPhone y iPad deberían ofrecer interacciones más fluidas, respuestas más útiles y automatizaciones mejor integradas en el sistema.
La WWDC 2026 de junio será el escenario donde Apple detalle el alcance real de esta transición. Allí sabremos si Core AI es simplemente una evolución nominal o el pilar de una etapa distinta en la plataforma. Lo que sí parece evidente es que Apple quiere que la inteligencia artificial deje de ser un apartado específico del sistema y pase a ser una capa transversal en todo su ecosistema.
Puedes seguir a HardwarePremium en Facebook, Twitter (X), Instagram, Threads, BlueSky o Youtube. También puedes consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.
FAQ
Es el nuevo marco de desarrollo que Apple presentaría para sustituir Core ML en iOS 27, orientado a integrar capacidades modernas de inteligencia artificial en apps.
Todo indica que Core AI tomará su lugar progresivamente, aunque podrían mantenerse herramientas de compatibilidad durante la transición.
Se espera su presentación en la WWDC de junio de 2026.
Mayor facilidad para integrar modelos generativos y servicios de IA sin depender tanto de soluciones externas.
Sí, en forma de aplicaciones más inteligentes y funciones mejor integradas en iOS 27.



