La expansión acelerada de la inteligencia artificial (IA) está transformando el perfil energético de la infraestructura digital y planteando nuevos desafíos para la operación de los centros de datos.
Especialistas de Schneider Electric señalan que el crecimiento de las cargas de trabajo de IA está elevando significativamente las necesidades de potencia y enfriamiento, lo que obliga a repensar el diseño tradicional de estas instalaciones.
Una sola consulta de IA puede requerir hasta diez veces más electricidad que una búsqueda tradicional en internet. Como consecuencia, se estima que hacia 2030 los centros de datos podrían concentrar alrededor del 3% del consumo eléctrico global, casi el doble de su participación actual, con un ritmo de crecimiento cuatro veces mayor al del resto de los sectores.
“La inteligencia artificial no solo está transformando la forma en que usamos la tecnología, también está redefiniendo la manera en que diseñamos y operamos la infraestructura digital. El reto térmico que generan estas cargas de trabajo exige soluciones más eficientes y escalables, donde el enfriamiento líquido jugará un papel clave para garantizar el desempeño y la sostenibilidad de los centros de datos”, señaló José Alberto Llavot, Gerente de Preventa y Desarrollador de Negocios en Schneider Electric para México y Centroamérica.
Este cambio también se refleja en la densidad de potencia por rack dentro de los centros de datos. Mientras muchas instalaciones tradicionales operan con densidades inferiores a 15 kW por rack, los racks diseñados para cargas de trabajo de IA basadas en GPU ya alcanzan alrededor de 132 kW. Las próximas generaciones de hardware podrían elevar esta cifra hasta 240 kW por rack, y la industria ya se prepara para escenarios futuros cercanos a 1 MW.
Ante estas condiciones, el enfriamiento por aire comienza a mostrar limitaciones para disipar la concentración de calor generada por los aceleradores de IA. En este contexto, el enfriamiento líquido se perfila como una solución crítica. Al extraer el calor directamente de los componentes, puede ser hasta 3,000 veces más eficiente que el aire en la transferencia térmica.
Además de habilitar mayores densidades de cómputo, esta tecnología también aporta beneficios en términos de sostenibilidad. Dependiendo del diseño, los sistemas de enfriamiento líquido pueden reducir el consumo energético entre 30% y 60% frente a esquemas tradicionales, y operar con un uso mínimo o incluso nulo de agua, un factor especialmente relevante en regiones con estrés hídrico.
No obstante, la sostenibilidad de los centros de datos de IA depende de múltiples decisiones de diseño y operación. Factores como la temperatura de operación, la selección de sistemas para liberar el calor al exterior, la eficiencia de los componentes y la integración de sistemas de control influyen directamente en el desempeño energético y ambiental de estas infraestructuras.
De acuerdo con Schneider Electric, la transición hacia arquitecturas de enfriamiento más avanzadas requiere planificación desde las primeras etapas del proyecto y una colaboración estrecha entre los equipos de TI, infraestructura y socios tecnológicos. Diseños flexibles capaces de combinar enfriamiento por aire y líquido permiten adoptar de manera progresiva las nuevas generaciones de hardware.
En la era de la inteligencia artificial, el enfriamiento deja de ser únicamente un sistema de soporte para convertirse en un habilitador estratégico de la infraestructura digital. Con una estrategia integral y una planificación adecuada, los centros de datos podrán construir plataformas resilientes y sostenibles capaces de responder al crecimiento de la IA.
Fuente. Schneider Electric




































