El chiste de Siri está terminando
Durante años, "Siri es mala" ha sido una de las quejas más consistentes en tecnologÃa — un chiste recurrente que Apple reconoció con "mejoras" que nunca abordaron del todo la brecha fundamental con los competidores.
2026 es cuando eso finalmente cambia. Apple ha anunciado oficialmente una Siri completamente reimaginada con IA, y por una vez, el cambio de arquitectura subyacente es suficientemente significativo como para que el escepticismo se sienta menos justificado de lo habitual.
Qué es realmente diferente
La antigua Siri era fundamentalmente una interfaz de voz para los servicios estructurados de Apple. Preguntar sobre el tiempo, establecer un temporizador, llamar a un contacto — manejaba estas tareas de manera confiable. Pedirle que hiciera cualquier cosa que involucrara razonamiento, sÃntesis o contexto entre aplicaciones, y se derrumbaba.
La nueva Siri se está reconstruyendo alrededor de la "conciencia de pantalla" — la capacidad de entender y actuar sobre lo que esté actualmente visible en el dispositivo.
Imagina pedirle a Siri que "envÃe esto a mi gerente" mientras miras un correo electrónico, y Siri sepa quién es tu gerente desde tus contactos, sepa que quieres decir correo electrónico (porque estás en Mail) y complete la acción. O pedir "resume lo que discutimos" mientras estás en Mensajes, y obtener un resumen inteligente de un hilo de conversación.
Esto es integración entre aplicaciones a un nivel que Siri nunca ha logrado.
La asociación con Google Gemini
El detalle que sorprendió a todos: Apple se está asociando con Google para usar su modelo Gemini para las capacidades de IA subyacentes.
El modelo en cuestión es el Gemini de Google de 1.2 billones de parámetros — entre los modelos más grandes y capaces documentados públicamente. Apple no está construyendo esto desde cero. Está construyendo la interfaz, la capa de privacidad y la integración especÃfica de Apple sobre un modelo que no entrenaron.
Las implicaciones de privacidad importan enormemente aquÃ. La principal diferenciación de IA de Apple ha sido el procesamiento en el dispositivo. Con la integración de Gemini, la arquitectura implica enviar algunas consultas a la infraestructura de Google — lo cual Apple está tratando de abordar con su infraestructura de Computación Privada en la Nube, pero que representa una verdadera desviación de su enfoque completamente en el dispositivo.
Lo que significa para el ecosistema de la App Store
La capacidad de integración entre aplicaciones tiene implicaciones significativas para los desarrolladores. Apple ha anunciado una API de Siri ampliada que permite a las aplicaciones declarar capacidades y acciones que Siri puede invocar.
La oportunidad para el desarrollador esencialmente es: "haz disponibles las funciones clave de tu aplicación como acciones de Siri y benefÃciate de que los usuarios descubran tu aplicación a través de la voz."
Mi opinión honesta
Apple pasando de "Siri es un sistema de acceso rápido por voz" a "Siri es un verdadero asistente de IA que entiende tu contexto" es la dirección correcta. La arquitectura de conciencia de pantalla es genuinamente inteligente — permite que el modelo trabaje con el contexto que los usuarios ya han generado en lugar de pedirles que proporcionen contexto explÃcitamente.
La asociación con Google es pragmática y sorprendente. Construir un modelo frontier tú mismo lleva años y recursos que incluso Apple sentirÃa.
El riesgo: la diferenciación de Apple en IA ha sido la privacidad. Si ahora se comparte con Google, ¿cuál es la ventaja de Apple?
La apuesta que están haciendo: la calidad de integración, la coherencia del ecosistema Apple y el hardware (Apple Silicon) crearán una experiencia mejor que cualquier cosa que Google ofrece en sus propios productos, incluso si Gemini es el modelo subyacente.
Esa apuesta podrÃa dar frutos. Apple ha sido buena en integración antes.