Home Tecnología Google I/O 2025: el modo AI en la búsqueda obtiene capacidades de...

Google I/O 2025: el modo AI en la búsqueda obtiene capacidades de agente y una experiencia de compra

17
0

La última función de inteligencia synthetic (AI) de Google en la búsqueda, el modo AI, ahora está obteniendo múltiples nuevas capacidades. Anunciado en Google I/O 2025 el martes, el gigante tecnológico con sede en Mountain View ahora está haciendo que la experiencia de búsqueda de extremo a extremo de IA es más capaz y útil. El modo está obteniendo nuevas características, como un modo de razonamiento, búsqueda en vivo, capacidades de agente para reservar una mesa en un restaurante y nuevas herramientas de compra. El modo AI en la búsqueda y las nuevas funciones solo estarán disponibles en los EE. UU.

El modo AI en la búsqueda se vuelve más inteligente

En blogel gigante tecnológico detalló las nuevas características que llegan al modo AI. Es una versión completa de las descripciones de IA, donde los usuarios pueden preguntar consultas complejas que de otro modo requerirían ejecutar múltiples búsquedas. El modo AI utiliza una técnica de ventilador de consulta, donde descompone las consultas de los usuarios en subtópicos y ejecuta múltiples consultas de búsqueda simultáneamente para encontrar y mostrar la información relevante.

Google dijo que a partir de esta semana, las descripciones de IA y las descripciones de IA en los EE. UU. Estarán alimentadas por una versión personalizada de Gemini 2.5. Si bien el modo AI no requiere un proceso de registro en los EE. UU., Estas nuevas capacidades solo estarán disponibles para seleccionar usuarios a través de Search Labs. En explicit, la compañía planea agregar características y capacidades desde el modo AI a la experiencia de búsqueda principal.

Se está agregando una nueva función de búsqueda profunda al modo AI, que permitirá a los usuarios recibir “respuestas aún más completas”. Utilizando capacidades de investigación profundas, puede ejecutar cientos de consultas de búsqueda, recopilar la información y crear “un informe totalmente citado a nivel experto en solo minutos”.

Otra nueva característica interesante es Search Reside. Esta versión de la búsqueda permite que el modo AI acceda a la cámara de un dispositivo, y en base a lo que ve, puede responder consultas verbalmente en tiempo actual. Los usuarios pueden solicitar información sobre información sobre objetos, puntos de referencia y lugares siempre que aparezcan en la alimentación de la cámara.

Google también está llevando la función de agente del Proyecto Mariner al modo AI. Con esto, la experiencia de búsqueda con AI puede ayudar a los usuarios a comprar boletos para eventos, hacer reservas de restaurantes y reservar citas. Por ejemplo, si un usuario desea reservar boletos para un evento deportivo, la herramienta analizará las opciones de boletos, analizará los precios en tiempo actual, full formularios y mostrará a los usuarios opciones de boletos relevantes. Los usuarios pueden confirmar los detalles y realizar la compra manualmente. Google está trabajando con Ticketmaster, StubHub, Resy y Vacaro para esta función.

El modo AI en la búsqueda también se está volviendo más personalizado. Google dijo que la herramienta con Géminis pronto ofrecerá sugerencias basadas en las búsquedas anteriores del usuario. Los usuarios también pueden conectar el modo AI con otras aplicaciones de Google para ayudarlo a ganar más contexto sobre sus preferencias. Esta capacidad se puede apagar en cualquier momento.

Además de las capacidades mencionadas, el modo AI en la búsqueda también es introducción Múltiples características nuevas para mejorar la experiencia de compra de los usuarios. Ahora muestra resultados de búsqueda visible, ayuda a los usuarios a probar prácticamente ropa nueva y usa agentes de IA para ayudar a los usuarios a comprar un producto cuando se está minoristas a su precio preferido.

Al combinar Gemini con el gráfico de compras de Google, el nuevo modo AI puede clasificar los 50 mil millones de listados de productos para encontrar opciones relevantes para los usuarios. Cada vez que los usuarios hacen una consulta de producto, mostrará un panel de imágenes y listado de productos navegables, que se personaliza a sus preferencias.

El gigante tecnológico cube que los usuarios pueden hacer solicitudes altamente específicas y complejas, y el modo AI aún podrá reducir las opciones para encontrar productos que se ajusten a la descripción. Esto significa que incluso si los usuarios no conocen el término técnico para el producto que están buscando, la herramienta AI aún puede identificarlo utilizando su descripción visible.

Simplemente cargando una foto completa de ellos mismos, los usuarios ahora pueden probar prácticamente miles de millones de listados de ropa. Google cube que la característica está impulsada por un modelo de generación de imágenes basado en la moda personalizado que comprende el cuerpo humano y cómo la ropa se pliega, se estira y drapean en diferentes cuerpos.

Finalmente, el modo AI también está obteniendo un nuevo sistema de pago de agente que ayuda a los usuarios a comprar productos. Siempre que un usuario esté en la página de pago de un producto (dentro de la interfaz del modo AI), verá una opción de “precio de pista”. Al tocarlo, les permitirá ver un management deslizante con el precio mínimo y máximo del producto y una recomendación para el precio preferrred. Los usuarios pueden establecer el management deslizante según sus preferencias, y la IA les notificará cada vez que el producto se vine por dicho precio.

Luego, los usuarios pueden tocar el botón “Comprar para mí” en la notificación, y el modo AI agregará automáticamente el artículo a su carrito en el sitio net del comerciante y completará el proceso de pago pagando a través de Google Pay. Esta función de pago de agentes se implementará en los próximos meses en los Estados Unidos.

fuente