Gmanía: Inteligencia Artificial en Google

Gmanía: Informe 18 de febrero de 2026


Listen Later

Los avances de Google en AI y Computación, vistos desde aquí, no son tanto una serie de saltos cuánticos como una consolidación metódica de una estrategia que llevan cocinando casi una década. Si ayer hablábamos de cómo su dominio en IA se cimentó en esa co-optimización estratégica de hardware y software, con las TPUs como punta de lanza, lo que vemos hoy es simplemente la maduración y la escalada de esa misma apuesta. No hay sorpresas aquí para nadie que haya estado prestando atención. Es la consecuencia lógica de haber invertido en infraestructura propietaria cuando el resto del mundo aún estaba debatiendo si las GPUs eran suficientes.

Lo que Google está haciendo ahora mismo es exprimir al máximo esa ventaja. No estamos hablando de descubrimientos de laboratorio que van a cambiar el mundo de la noche a la mañana, sino de la ingeniería de producto y de la infraestructura a una escala que pocos pueden igualar. Han estado afinando sus TPUs, por ejemplo, no solo en potencia bruta –que también– sino en eficiencia energética y en la capacidad de desplegar modelos cada vez más grandes y complejos. Las versiones más recientes de sus TPUs, las que están operando en sus centros de datos ahora mismo, son el resultado de años de iteraciones, de aprender qué funciona y qué no a la hora de entrenar y servir modelos que, hace un par de años, parecían ciencia ficción. La clave no es solo tener el chip, es tener todo el *stack*: desde el compilador, el framework, hasta la orquestación de miles de esos chips trabajando en paralelo. Es un sistema cerrado, diseñado para ellos, por ellos, y eso les da un control sobre el rendimiento y el coste que sus competidores, que dependen en gran medida de hardware de terceros como Nvidia, simplemente no tienen. Es una ventaja estructural, no una ventaja táctica.

Y esa ventaja en el hardware se traduce directamente en el software, claro. Sus modelos de IA, ya sean los que impulsan la búsqueda, el asistente, o las herramientas de Workspace, se benefician de esta infraestructura dedicada. Estamos viendo cómo la capacidad de sus modelos multimodales, por ejemplo, sigue expandiéndose. No es que de repente hayan encontrado una fórmula mágica para la inteligencia general, es que pueden entrenar modelos con datasets masivos, con más parámetros y durante más tiempo, porque tienen la capacidad de cómputo para hacerlo de forma relativamente coste-efectiva para sus propios intereses. Esto les permite refinar las respuestas, reducir las alucinaciones –aunque no eliminarlas del todo, eso es un problema fundamental– y hacer que la experiencia del usuario sea, en general, más fluida. Pero no nos engañemos, esto no es altruismo. Cada mejora en la IA de Google es una mejora en su capacidad para monetizar la atención, para mantener a los usuarios dentro de su ecosistema y para ofrecer servicios empresariales más atractivos a través de Google Cloud. Es una máquina de hacer dinero, muy bien engrasada.

En el ámbito de la computación más allá de la IA pura, Google también sigue empujando los límites de su infraestructura global. Piensa en la red de fibra óptica submarina, los centros de datos distribuidos por todo el planeta. Todo eso no es solo para servir búsquedas o vídeos de YouTube. Es la base sobre la que construyen sus servicios de IA. La latencia, la redundancia, la capacidad de mover ingentes cantidades de datos de un lado a otro del mundo con una fiabilidad alta, es lo que permite que sus modelos se entrenen en un continente y se sirvan en otro sin que el usuario final note la diferencia. Es una inversión masiva y constante en infraestructura física que a menudo se pasa por alto cuando la gente habla de "avances en IA". Pero sin esa base, sin esos cables y esos servidores, los modelos de IA más sofisticados serían poco más que juguetes de laboratorio. Es la escala lo que lo hace relevante, y la escala requiere una infraestructura brutal. Y esa infraestructura es, de nuevo, un factor de control y una barrera de entrada para otros actores. No es algo que se construya en un par de años.

El impacto en el mercado es bastante predecible. Google está consolidando su posición como uno de los pocos proveedores de infraestructura de IA de extremo a extremo. Para las empresas que quieren subirse al carro de la IA, la opción de usar Vertex AI y todo el ecosistema de Google Cloud es cada vez más atractiva, precisamente porque promete esa eficiencia y esa escalabilidad que ellos mismos han demostrado internamente. Pero esto también genera un cierto "vendor lock-in". Una vez que tus modelos están entrenados y optimizados para el hardware y el software de Google, migrar a otra plataforma no es trivial. Implica costes, tiempo y una reoptimización que muchas empresas no están dispuestas a asumir. Así que, mientras Google ofrece "flexibilidad" y "opciones", en la práctica, te están atando a su ecosistema de una manera bastante efectiva. Para los competidores, esto significa que la carrera no es solo por tener el mejor modelo, sino por tener la infraestructura subyacente que pueda competir en coste y rendimiento. Y ahí es donde la ventaja de Google, construida durante casi una década, se hace más evidente. Los demás están jugando a la remontada.


Mirando hacia adelante, no esperes fuegos artificiales cada semana. Lo que veremos es una continuación de esta tendencia: más eficiencia, modelos ligeramente más capaces, una integración más profunda de la IA en productos que ya usamos a diario. La IA se va a volver cada vez más invisible, más incrustada en el tejido de la computación. Google seguirá invirtiendo en sus TPUs, en sus centros de datos, en sus modelos, porque es su estrategia central. El verdadero "avance" es la normalización de estas capacidades, hacerlas accesibles y útiles para un público más amplio, aunque siempre bajo sus términos y dentro de su infraestructura. También veremos más presión sobre la ética y la regulación de estas tecnologías, a medida que su impacto se hace más palpable en la sociedad. Pero desde el punto de vista técnico y de negocio, la dirección está clara: optimización constante, escalada masiva y un control férreo sobre el stack completo. Es la misma partitura que han estado tocando desde hace casi diez años, solo que ahora la orquesta es mucho más grande y suena mucho más fuerte.
...more
View all episodesView all episodes
Download on the App Store

Gmanía: Inteligencia Artificial en GoogleBy Gmanía AI