April 2, 2026

Office Address

123/A, Miranda City Likaoli
Prikano, Dope

Phone Number

+0989 7876 9865 9

+(090) 8765 86543 85

Ciencia y Técnología

un sistema gobernado por agentes de IA – El diario andino

un sistema gobernado por agentes de IA

 – El diario andino

La forma en que utilizamos las aplicaciones móviles podría estar entrando en una nueva etapa. Hasta ahora, la experiencia Android se ha basado en algo muy sencillo: abrir aplicaciones y realizar acciones paso a paso dentro de ellas. Sin embargo, Google está explorando un modelo diferente, en el que la inteligencia artificial actúa como una capa intermedia entre lo que pedimos y lo que las aplicaciones pueden hacer. En ese escenario, no siempre seremos nosotros quienes nos desplacemos por los menús o completemos procesos manualmente. En muchos casos bastará con expresar lo que queremos hacer para que el sistema intente solucionarlo por nosotros coordinando diferentes funciones del teléfono.

El siguiente paso en Android. En una publicación en el blog oficial del desarrollador.la compañía presenta nuevas capacidades diseñadas para que las aplicaciones puedan trabajar directamente con asistentes y sistemas de IA. Estas funciones están diseñadas para que herramientas como Gemini puedan descubrir y ejecutar determinadas acciones dentro de algunas aplicaciones. El proyecto aún se encuentra en una fase inicial, pero sugiere una dirección muy específica: comenzar a reconfigurar Android como un entorno en el que la inteligencia artificial pueda ayudar a completar tareas.

¿Qué entendemos por agente? En el campo de la IA, un agente es un sistema diseñado pasar de la respuesta a la acción. Si bien los primeros asistentes digitales funcionaban como herramientas de consulta, los agentes intentan comprender una intención y planificar cómo llevarla a cabo. Para ello, combinan varias capacidades: comprender el lenguaje natural, evaluar el contexto y decidir qué pasos son necesarios para cumplir con una solicitud. No se trata sólo de generar texto o sugerencias, sino de organizar una pequeña cadena de decisiones orientadas a un objetivo concreto.

Si seguimos el razonamiento que presenta Google en su publicación, el cambio no sólo afecta a la IA, sino también a cómo se conciben las aplicaciones dentro de Android. Durante años, el principal objetivo de cualquier aplicación era conseguir que el usuario la abriera y completara todas las acciones necesarias dentro de ella. Sin embargo, ahora ese criterio está empezando a cambiar. En este nuevo escenario, el éxito empieza a medirse menos por conseguir que abramos una app y más por su capacidad para ayudar a completar una tarea, incluso cuando el usuario no interactúa directamente con toda su interfaz.

Uno de los primeros cambios. El primer camino que Google propone para avanzar en esta dirección pasa por algo que llama Funciones de la aplicación. No es una característica visible para el usuario como tal, sino más bien un conjunto de herramientas con las que los desarrolladores pueden exponer funciones y datos de sus aplicaciones a asistentes inteligentes como Gemini. El ejemplo mencionado por el propio blog de Android es bastante ilustrativo: en la serie Galaxy S26 recientemente presentada, Gemini puede acceder a las funciones de la Galería Samsung para localizar fotografías específicas basándose en una solicitud en lenguaje natural, como pedirle que muestre imágenes de una mascota. En ese caso, el asistente interpreta la solicitud, activa la función Samsung Gallery correspondiente y devuelve el resultado sin necesidad de que el usuario navegue manualmente por la galería.

La otra forma de Google. Junto a las integraciones directas, la compañía prepara una segunda fórmula para extender este modelo a más aplicaciones. Según explica, se trata de un sistema de automatización de interfaz que permitirá a Gemini encargarse de tareas genéricas de varios pasos sin depender de una conexión específica entre la aplicación y el asistente. En lugar de depender de una función previamente expuesta por la aplicación, la IA actúa directamente sobre la interfaz. Google señala que esta vista previa inicial se probará en la serie Galaxy S26 y algunos Pixel 10, dentro de la aplicación Gemini y con una selección limitada de aplicaciones de entrega, comestibles y transporte en Estados Unidos y Corea. La empresa también asegura que el usuario podrá seguir el proceso a través de notificaciones o una vista en vivo, retomar el control manual en cualquier momento y recibir notificaciones antes de acciones sensibles, como una compra.

Mirando hacia el futuro. Si algo deja claro el anuncio de Google es que Android empieza a prepararse para una etapa diferente. Las funciones presentadas aún están en desarrollo y su despliegue será paulatino, pero apuntan a una dirección concreta: un sistema operativo en el que la inteligencia artificial juega un papel cada vez más activo en la forma en que realizamos las acciones diarias en los teléfonos móviles. Pixel y Samsung aparecen por ahora como los referentes más visibles, aunque Google deja entrever que quiere llevar estas capacidades a más fabricantes a medida que el ecosistema evolucione. Como suele ocurrir con este tipo de cambios, el resultado final dependerá de cómo evolucionen las herramientas, las integraciones y la respuesta de los propios usuarios.

Imágenes | Google

En | El iPhone ha sido un teléfono «fabricado en China» durante décadas. Ahora está cambiando de país a toda velocidad: India

About Author

Redactor Andino