Del «Ok Google» a la acción real: Gemini estrena automatización de tareas en dispositivos Pixel y Galaxy

El concepto de «asistente personal» está sufriendo su transformación más radical desde el nacimiento del smartphone. Google ha comenzado el despliegue en fase beta de […]

Artículos

ESCRITO POR

Comunicación LinkSpace

ACTUALIZADO

27 de marzo, 2026

En este artículo

El concepto de «asistente personal» está sufriendo su transformación más radical desde el nacimiento del smartphone. Google ha comenzado el despliegue en fase beta de la automatización de tareas de Gemini en los nuevos Pixel 10 Pro y Samsung Galaxy S26 Ultra, permitiendo por primera vez que la IA tome el control físico de las aplicaciones para ejecutar acciones en nombre del usuario.

El «chofer» digital: Lento, pero preciso

A diferencia de las demostraciones controladas en auditorios, la experiencia real de Gemini utilizando apps diseñadas para humanos (como Uber Eats o servicios de rideshare) revela una tecnología que, aunque es notablemente más lenta que un dedo humano, demuestra una capacidad de razonamiento sorprendente.

  • Razonamiento en tiempo real: En pruebas de campo, Gemini fue capaz de interpretar menús ambiguos, deduciendo, por ejemplo, que dos «medias porciones» equivalen al «combo» solicitado por el usuario mediante lenguaje natural.
  • Ejecución en segundo plano: Aunque pedir una cena puede tomar hasta nueve minutos, la propuesta de valor reside en la autonomía: el usuario puede guardar el teléfono mientras la IA navega por la interfaz, selecciona productos y prepara el pedido.
  • Fricción de seguridad: El sistema está diseñado para detenerse justo antes del pago, requiriendo una confirmación final del usuario. Esta «fricción deliberada» actúa como salvaguarda contra errores de procesamiento.

El fin de la interfaz humana para la IA

La automatización actual de Gemini utiliza un enfoque de razonamiento visual sobre interfaces humanas, lo cual resulta en ocasiones «torpe» al tener que esquivar banners publicitarios o fotos de platos que a una IA no le interesan. Este fenómeno está impulsando una nueva arquitectura de software:

  1. Model Context Protocol (MCP): La industria avanza hacia sistemas donde la IA accede a bases de datos directas en lugar de «leer» la pantalla.
  2. App Functions de Android: Google presiona a los desarrolladores para que adapten sus apps con funciones que Gemini pueda invocar de forma invisible y veloz.

Planificación predictiva: El caso de los viajes

Uno de los hitos más impresionantes de esta beta es la integración con el calendario y el correo. Gemini no solo puede «reservar» un transporte, sino que es capaz de analizar un vuelo próximo, calcular el tiempo de trayecto al aeropuerto basándose en la ubicación y sugerir la hora exacta de salida, preparando la reserva en Uber sin que el usuario tenga que introducir datos manualmente.

«Ver a Gemini desplazarse por una app para buscar una guarnición es como ver una película de suspenso, pero el resultado es innegable: es la primera vez que un asistente realmente hace cosas en lugar de solo responderlas», señalan analistas de LinkSpace.

Hacia una nueva forma de usar el móvil

Aunque actualmente es un proceso pausado y limitado a un grupo selecto de aplicaciones, la automatización de Gemini representa el primer paso firme hacia la IA Agéntica Móvil. La promesa es clara: un futuro donde el usuario dicta el objetivo y la IA navega la complejidad del software para cumplirlo.

Fuente: The Verge