Android 17 y la era ‘agente’: Google permite que Gemini actúe en tus apps sin que las abras
Durante años, el «asistente» en smartphones se ha limitado principalmente a abrir aplicaciones. Ahora, Google quiere dar un paso adelante: hacer que realice acciones, no solo sugerirlas.
Con las nuevas herramientas para desarrolladores presentadas la semana pasada, Android se prepara para recibir agentes de IA que pueden navegar por tus aplicaciones instaladas — buscar una foto, gestionar un calendario, pedir comida o organizar un trayecto con múltiples etapas — mientras continúas usando tu teléfono.
Google habla de un «futuro agente» donde ya no pasamos de una app a otra: formulamos una intención y la IA se encarga del recorrido. Las primeras características llegan en beta en la gama Galaxy S26 y algunos Pixel 10, con una invocación simple: un toque largo en el botón de encendido para delegar una tarea compleja a Gemini.
Al lanzar esta funcionalidad, Google limita intencionalmente su alcance: solo en Estados Unidos y Corea del Sur, y un rango de aplicaciones «curadas» en tres categorías muy concretas (entrega de comida, compras, VTC).
Dos enfoques técnicos: AppFunctions (propio) y automatización de UI (universal)
Google basa este cambio en dos enfoques complementarios —y ahí es donde se produce la verdadera transformación.
AppFunctions: la integración «propia» (y recomendada)
AppFunctions es un framework diseñado para que los desarrolladores expongan funciones específicas de una app a un agente IA (por ejemplo, buscar fotos, crear un evento, extraer una nota), de manera estructurada y controlable. Google lo presenta como una capa de «descubribilidad»: el asistente puede entender lo que la app sabe hacer y llamarlo a través del lenguaje natural.
Automatización de UI: la integración «por defecto» cuando la app no está preparada
Para las aplicaciones no integradas, Google está probando un framework de automatización de la interfaz: Gemini «utiliza» la app como lo haría un humano, mediante una ventana virtual, realizando los pasos necesarios (selecciones, campos, opciones), mientras se mantiene la supervisión. Es más amplio, más mágico… y potencialmente más frágil si la interfaz cambia.
Google resume claramente la intención: AppFunctions para una experiencia robusta y controlada; automatización de UI para proporcionar «alcance inmediato» al agente, incluso cuando el ecosistema no esté aún preparado.

Seguridad y control: el agente actúa, pero tú mantienes el control
La objeción es evidente: dejar que una IA «esté en tus apps» parece un riesgo. Google responde enfatizando la transparencia y las salvaguardas:
- el usuario puede seguir la ejecución a través de notificaciones/visualizaciones de progreso y retomar el control;
- las acciones sensibles (por ejemplo, pago, validación final) requieren una confirmación explícita;
- Google insiste en que la ejecución esté diseñada con la privacidad como base, y que el usuario siga siendo el que toma las decisiones.
Este planteamiento también es una admisión: la «agente» no tendrá ninguna posibilidad de volverse «normal» si el usuario siente que es un espectador de un autómata opaco. Aquí, Google busca hacer la automatización útil sin parecer inquietante.
Lo que esto anuncia para Android 17: el sistema se convierte en una interfaz de intenciones
El aspecto más importante está en la hoja de ruta: Google explica que quiere ampliar estas capacidades con Android 17 para llegar a más usuarios, fabricantes y sobre todo, desarrolladores.
En un sentido más amplio, Android está cambiando de papel: ya no solo se usa para abrir aplicaciones, sino para orquestar acciones entre ellas. Y si la promesa se cumple, el gesto más «inteligente» de mañana no será abrir el icono de Uber/DoorDash/calendario, sino decir: «Hazlo por mí, y muéstrame antes de validar.»




