Google estrena AI Mode y reinventa las búsquedas en internet, presenta gafas inteligentes y agentes que compran solos: Por Félix Riaño @LocutorCo
Buscar en la web va a cambiar más de lo que imaginamos. AI Mode ya aparece en Estados Unidos como una pestaña dentro del cuadro de Google y pronto va a llegar a más países. La función conversa como una experta, divide preguntas en partes pequeñas y responde en voz clara. Google también presentó unas nuevas gafas inteligentes desarrolladas junto a Warby Parker y Gentle Monster, que traducen en vivo, guían en la calle y hasta ayudan a hacer compras sin usar las manos. Todo funciona con Gemini 2.5, la inteligencia que ya procesa quinientos billones de instrucciones por mes. El reto ahora es entender si esto nos va a facilitar la vida o si, por el contrario, nos deja con menos control. ¿Cómo nos va a afectar a quienes hablamos español y usamos Google todos los días para trabajar, estudiar o simplemente encontrar el mejor lugar donde comer?
Menos clics en las páginas web pueden afectar miles de empleos.
Imagina que escribes en Google: “restaurantes abiertos cerca de mí con buena comida y parqueadero fácil”. Con AI Mode, no ves la lista tradicional de enlaces, sino una conversación. La IA te pregunta si prefieres algo rápido o para sentarte a comer tranquilo, y si quieres comida colombiana, mexicana o italiana. Toma en cuenta tus búsquedas anteriores, los lugares donde has estado con Google Maps y, si diste permiso, hasta tus reservas pasadas en Gmail. Luego arma una respuesta con dos o tres opciones: muestra fotos del lugar, tiempo estimado para llegar, si hay mesas disponibles, precios en tu moneda y comentarios recientes. Todo eso sin salir de la página de resultados. Liz Reid, la jefa de búsqueda de Google, dice que AI Overviews, el sistema que muestra estos resúmenes automáticos, ya se usa en más de cuarenta idiomas y en más de doscientos países. Son más de mil quinientos millones de personas cada mes.
Pero tanta eficiencia trae consecuencias. Editores de medios en Bogotá, Lima o Buenos Aires temen que el lector ya no llegue a su página. Si la IA responde todo en el primer pantallazo, ¿quién va a leer el artículo completo? Y si nadie entra, nadie ve la publicidad. Eso pone en riesgo los ingresos de medios digitales pequeños y también los empleos de periodistas. Lo mismo pasa con pequeños negocios. Si no tienen su menú bien organizado en línea o no aparecen con datos claros, es probable que la IA ni siquiera los muestre. Además, AI Mode pronto va a usar, si el usuario lo permite, datos personales como correos en Gmail o eventos en el calendario. Con eso puede sugerir restaurantes antes de una reunión o mostrar rutas al aeropuerto según tu vuelo. Todo suena útil, pero los defensores de la privacidad ya están preocupados: ¿dónde queda el límite? ¿Quién decide qué datos se usan y cuándo?
Google dice que quiere mantener el equilibrio. AI Mode incluye controles de privacidad para pausar personalización, borrar historial y revisar qué información se está usando. Además, muestra enlaces directos a las fuentes, para que el usuario pueda leer más si quiere. También presentó Deep Search, una función que lanza cientos de búsquedas internas para armar informes completos. Ideal para estudiantes o periodistas que necesitan contexto rápido. Las nuevas gafas Android XR también hacen parte de esta transformación. Son cómodas, modernas y capaces de traducir en tiempo real, tomar fotos y mostrar direcciones sin usar las manos. Sergey Brin, cofundador de Google, confesó que cometió muchos errores con las primeras Google Glass, pero esta vez la apuesta va en serio. Google va a invertir ciento cincuenta millones de dólares en Warby Parker para lanzar modelos con y sin fórmula óptica a partir de 2026. Y la idea no es competir con celulares, sino complementarlos. Las gafas funcionan junto al teléfono y permiten interactuar con la IA en cualquier momento.
Gemini ya tiene más de cuatrocientos millones de usuarios activos. Google dice que con AI Mode y las nuevas gafas, la búsqueda va a pasar de ser un acto puntual a un acompañamiento constante. Por ejemplo, con solo apuntar la cámara del celular, puedes preguntar si una batería es compatible con tu dispositivo o qué tipo de tornillo necesitas. Gemini también puede comprar entradas para eventos, hacer reservaciones en restaurantes o monitorear precios hasta que bajen. Todo esto es opcional, pero ya se está probando con socios como Ticketmaster, Resy y Google Pay. En América Latina, empresas pequeñas pueden prepararse optimizando su presencia en línea con datos claros: ubicación, horario, precios y fotos de buena calidad. Mientras tanto, puedes explorar estas funciones descargando la app de Google y activando la opción de AI Mode, si estás en Estados Unidos. Para conocer más sobre el pasado, el presente y el futuro de las gafas inteligentes, escucha el episodio especial de El Siglo 21 es Hoy sobre las Gafas Google.
AI Mode convierte la búsqueda en conversación, y Google ahora quiere estar presente incluso fuera del celular. ¿Te ayuda o te preocupa? Comparte tu opinión y escucha este episodio de Flash Diario y el de Gafas Google en El Siglo 21 es Hoy. Síguelo en Spotify aquí: Flash Diario en Spotify
ciona o te preocupa?Separador
📚 Bibliografía
- BBC News
- The Washington Post
- CNN Business
- The New York Times
- Search Engine Journal
- TechCrunch – Warby Parker
- CNBC – Warby Parker
- TechCrunch – Sergey Brin
- Blog Google – Android XR
Redes sociales:
YouTube Music | Instagram | LinkedIn Newsletter¿Te gustaría que prepare también una imagen para la portada de este episodio con un diseño sugerente?
Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.