Google ha admitido en una reunión interna que para satisfacer la demanda explosiva de sus servicios de inteligencia artificial necesita duplicar su capacidad de computación cada seis meses. Según el vicepresidente de infraestructura de IA, la empresa va a apuntar a un crecimiento de hasta 1.000 veces en 4 o 5 años, manteniendo incluso los niveles de coste y consumo energético en un rango similar al actual. Para lograrlo, Google planea combinar tres estrategias: ampliar sus centros de datos, diseñar modelos de IA más eficientes y fabricar sus propios chips personalizados, como su TPU de séptima generación, llamado Ironwood, que es “casi 30 veces más eficiente” que sus primeras unidades. A pesar de las preocupaciones por una burbuja de IA, los responsables de Google aseguran que el riesgo de quedarse corto es ahora más grave que el de pasarse de capacidad.

Una apuesta descomunal por el músculo de IA

En una reunión general celebrada a principios de noviembre, Amin Vahdat, responsable de la infraestructura de IA en Google Cloud, dejó claro que el ritmo al que la empresa debe seguir creciendo es brutal: “ahora tenemos que duplicar cada seis meses”, comentó, mientras proyectaba la meta de lograr un aumento de 1.000 veces en capacidad de computación, almacenamiento y red en un plazo de cuatro a cinco años.

No se trata solo de gastar más, sino de hacerlo con inteligencia: Vahdat subrayó que el objetivo no es superar en inversión a todos los rivales, sino construir sistemas “más fiables, más escalables y más eficientes” que los que hay actualmente disponibles. Para ello, Google va a apoyarse en tres palancas: expandir su infraestructura física, usar modelos de IA optimizados y desarrollar sus propios chips .

Un punto clave de la estrategia es su silicio propio. En concreto, Google presentó su TPU (Tensor Processing Unit) de séptima generación, bautizada como Ironwood, que según la compañía logra “casi 30 veces más eficiencia energética” que su primer TPU de 2018. Gracias a esta mejora, la empresa espera ofrecer una capacidad masiva sin disparar sus costes operativos ni su consumo energético.

Durante la reunión, el consejero delegado Sundar Pichai también intervino para advertir que 2026 será un año “intenso”, con presión tanto por la competencia en IA como por la demanda creciente en servicios cloud. Además, reconoció por primera vez las dudas que algunos empleados tienen sobre un posible “globo de IA”: pero su punto es que subinvertir, en este momento, puede ser más peligroso que construir de más.

¿Y todo ese crecimiento no choca con la energía y el coste?

Sí, y esa es una de las mayores tensiones de este plan. Vahdat admitió que deben multiplicar por mil la capacidad de cómputo, el almacenamiento y las redes “manteniendo esencialmente el mismo coste y, cada vez más, el mismo nivel de energía”.. Esa exigencia técnica no es trivial: implica co‑diseño entre hardware, software, centros de datos y silicio para no disparar el gasto ni el consumo.

Google ya está sintiendo el peso eléctrico. Según su propio informe de sostenibilidad, el uso de energía de sus centros de datos se ha duplicado en solo cuatro años, alcanzando aproximadamente 30,8 millones de megavatios-hora en 2024, frente a los 14,4 millones en 2020. Esa expansión refleja parcialmente la necesidad de sostener la ambición de IA.

La escalada también coincide con análisis externos que prevén un aumento del 165 % en la demanda eléctrica de centros de datos hacia 2030, directamente impulsado por cargas de trabajo de IA. Si Google y otros gigantes quieren seguir, deben equilibrar esa presión con eficiencia y sostenibilidad.

El corazón de la apuesta: infraestructura, modelos y chips

La construcción de más centros de datos es solo una parte. Google necesita diseñar sistemas desde cero, con silicio a medida y modelos de IA eficientes. La integración total entre hardware, red y unidades de cálculo permite maximizar el rendimiento por vatio y mantener la escalabilidad.

Los modelos de IA también se están optimizando para consumir menos mientras rinden más, lo que reduce la presión sobre los centros de datos. La séptima generación de TPUs, Ironwood, permite procesar tareas complejas con casi 30 veces más eficiencia que las primeras unidades, reduciendo la dependencia de hardware externo y el consumo energético.

Riesgos, incertidumbres y críticas

No todo es un camino llano. La duplicación cada seis meses implica un crecimiento exponencial del consumo energético, y aunque Google promete eficiencia, no es automático que los nuevos centros y chips compensen todo el gasto. La inversión es enorme y el retorno dependerá del éxito en servicios generativos y cloud. La competencia es feroz, y un fallo en la planificación puede significar perder ventaja estratégica.

Qué implican estas decisiones para el mercado y el futuro digital

Si Google logra este plan, consolidará su liderazgo en IA y cloud. Podrá desplegar funciones avanzadas en búsqueda, Gmail o Workspace, y acelerar modelos generativos. A nivel macro, el crecimiento de centros de datos tendrá impacto energético y medioambiental, por lo que la eficiencia será clave. Su enfoque de co-diseño de chip y software podría marcar el estándar de la industria para la próxima década.

496
Suscribirse
Notificación
0 Comments
Inline Feedbacks
Ver todos los comentarios
0
¡Aquí puedes dejar tus comentarios!x