La sostenibilidad se ha convertido en una de las principales prioridades corporativas, y los centros de datos y sistemas de TI corporativos son un área clave de enfoque dado el grandes cantidades de consumo de recursos que se dedican a alimentar y enfriar entornos de procesamiento que consumen cada vez más energía.

A medida que las organizaciones optan por entornos informáticos más rápidos y potentes, los procesadores, las GPU y el almacenamiento de estado sólido más nuevos requieren mucha más potencia para funcionar que sus predecesores tecnológicos. En algunos casos, los requisitos de energía de estos grandes centros de datos pueden rivalizar con los de una ciudad pequeña, y esto impulsa a las organizaciones de todos los tamaños a buscar alternativas que puedan compensar este crecimiento del consumo.

Si bien algunas organizaciones buscan sus propias iniciativas de eficiencia y sostenibilidad de los centros de datos, muchas están trasladando las cargas de trabajo a la nube para simplificar su entorno de administración de TI y, al mismo tiempo, reducir la huella de carbono asociada con la utilización de la computación.

Puede parecer contradictorio pensar que los principales centros de datos en la nube pública llenos de miles de racks de servidores informáticos podrían ser de alguna manera una opción más eficiente desde el punto de vista energético, pero la realidad es que los principales proveedores de nube se han convertido en «cinturones negros» a la hora de medir, evaluar y reducir los costos relacionados con la energía que implica operar sus megacentros de datos, tanto por motivos de eficiencia operativa y rentabilidad como de sostenibilidad.

Un paso obvio que deben tomar los proveedores de la nube sería aprovechar tantas fuentes de energía verde o renovable como sea posible, y están buscando absolutamente ese camino. En general, los principales proveedores de nube pública son algunos de los mayores consumidores de energía renovable del mundo. Sin embargo, en lugar de simplemente aprovechar la energía sostenible, estos titanes de la TI han centrado cada vez más su atención en reducir la cantidad bruta de energía que se consume en primer lugar para influir positivamente en el resultado.

Impulsar la eficiencia ambiental y de los servidores

El enfoque en la eficiencia energética ha generado un nuevo interés en una métrica relacionada con la energía denominada eficacia en el uso de la energía (PUE), que durante mucho tiempo se ha asociado con las cargas de trabajo de computación de alto rendimiento (HPC) ejecutadas por algunos de los principales usuarios de recursos informáticos, como el Departamento de Energía de EE. UU.

El PUE mide la eficacia energética de un centro de datos midiendo la cantidad de energía bruta que ingresa al centro de datos y dividiéndola por la energía utilizada para hacer funcionar el equipo de TI que contiene. Un centro de datos perfectamente eficiente tendría un PUE de 1.0, lo que indica que el 100% de la energía que ingresa al centro de datos se utiliza para alimentar el equipo necesario, sin desperdicio.

En realidad, los cálculos del PUE deben tener en cuenta la energía utilizada para la refrigeración y la conversión de energía. También deben mostrar las mediciones tomadas como un promedio anual que incluya los calurosos meses de verano, cuando los requisitos de refrigeración aumentarán los requisitos de energía para las operaciones.

Los principales proveedores de nube siguen realizando importantes inversiones para reducir su PUE. Los entornos de centros de datos de nube pública más grandes de Google son, en promedio, más de 1,5 veces más eficientes desde el punto de vista energético que los centros de datos empresariales típicos, y otros proveedores de nube pública están obteniendo resultados similares.

Del mismo modo que los equipos de carreras de automóviles ganan carreras al encontrar continuamente pequeñas mejoras de eficiencia en la aerodinámica, los operadores de la nube reducen el consumo de energía mediante la implementación de innovaciones operativas como el funcionamiento de sus centros de datos a 80 grados Fahrenheit, el uso del aire exterior para la refrigeración y el diseño de sus propios servidores supereficientes.

De hecho, los resultados de la innovación y la inversión de los grandes operadores de nube pública se han estudiado, medido y publicado. UN Artículo de 2020 publicado en la revista Science mostró que, si bien la cantidad de computación realizada en los principales centros de datos en la nube aumentó alrededor de un 550% entre 2010 y 2018, la cantidad de energía consumida por estos centros de datos solo creció un 6% durante el mismo período.

Los autores del estudio señalan que estas mejoras en la eficiencia energética superaron a las observadas en otros sectores importantes de la economía.

El control inteligente del software como siguiente paso

La reducción del uso de energía con la nube puede amplificarse al proporcionar a las organizaciones de TI planos de control inteligentes que permiten a los administradores configurar, ajustar, iniciar y detener con precisión las configuraciones basadas en la nube para satisfacer con precisión las necesidades de las cargas de trabajo de los usuarios.

Por ejemplo, los centros de datos corporativos tradicionales tienen una configuración fija de servidores y recursos que normalmente se ejecutan en una configuración «siempre activa», independientemente del perfil de uso actual y de la necesidad de cargas de trabajo activas. Esto impulsa un consumo de energía constante a un nivel relativamente alto que no es óptimo desde el punto de vista del PUE y la sostenibilidad.

Por el contrario, los entornos basados en la nube controlados por software pueden ofrecer un catálogo de 20 configuraciones de instancias de procesamiento diferentes que se pueden asignar de forma dinámica a un trabajo de usuario en particular y que se pueden activar y desactivar rápidamente según sea necesario.

Esta capacidad más dinámica de seleccionar tipos de nodos que proporcionen con precisión la cantidad de potencia de procesamiento requerida para una carga de trabajo determinada (y de utilizar esos servidores o instancias solo cuando sea necesario) puede proporcionar el mismo tipo de optimización del uso en función de las aplicaciones específicas que los proveedores de nube realizan en sus iniciativas de PUE.

El resultado en la nube es que se puede asignar y reasignar dinámicamente un único conjunto de recursos informáticos entre varios grupos de usuarios, o incluso grupos de usuarios de varias empresas, de manera completamente segura y que maximiza el uso eficiente del entorno.

Esto puede resultar particularmente útil para cargas de trabajo con uso intensivo de cómputos, como la IA y el HPC, donde diversas aplicaciones pueden lograr una aceleración significativa del rendimiento mediante el uso de configuraciones de servidores y procesadores específicos.

El poder de la elección

Si bien los planes de control de software avanzados para la administración de cargas de trabajo son un componente clave de la ejecución basada en la nube, existe una tendencia creciente en el uso de entornos de nube híbrida que permiten a las organizaciones de TI aprovechar los mejores elementos de sus entornos de centros de datos locales en combinación perfecta con la nube pública.

En estos casos, los entornos de plano de control basados en software pueden permitir a los administradores de TI dirigir las cargas de trabajo a la ubicación que mejor se adapte a las necesidades actuales de actividad y sistema. Por ejemplo, una carga de trabajo puede ejecutarse en las instalaciones la mayor parte del tiempo, pero puede «ampliarse» para ejecutarse en un conjunto mucho mayor de recursos en la nube de forma mensual o trimestral durante los períodos de uso muy elevado.

Del mismo modo, ciertas cargas de trabajo de IA e informática de alto rendimiento que requieren acceso a los recursos de GPU más recientes pueden ejecutarse en la nube, donde las tecnologías de procesador más recientes están más disponibles mediante un sistema de pago por uso. Todo es cuestión de elección.

No cabe duda de que los principales proveedores de nube están liderando el camino hacia la eficiencia operativa de los centros de datos, y sus avances benefician tanto a los clientes que ejecutan sus cargas de trabajo en la nube como a los equipos de TI y a los operadores de instalaciones de colocación, que pueden aprovechar el conjunto de herramientas y técnicas en evolución.

Las empresas más avanzadas encontrarán formas, mediante el uso de software de plano de control inteligente, de ejecutar sus cargas de trabajo en el lugar correcto y en el momento adecuado para ofrecer el máximo beneficio a sus organizaciones y a un futuro sostenible.

Penguin Solutions puede ser su socio estratégico de confianza para soluciones de IA y HPC. Con más de 25 años de experiencia en HPC y más de 7 años de diseño e implementación de infraestructuras de IA, y más de 85 000 GPU implementadas y administradas desde 2017, estamos listos para ayudarlo.

Póngase en contacto con los expertos en infraestructura de IA acuda hoy a Penguin Solutions para analizar las necesidades de sus proyectos de IA.

Imagen del autor

Mark Seamans

Vice President, Global Marketing

Mark tiene un profundo conocimiento técnico y una amplia experiencia de liderazgo en el diseño e implementación de infraestructuras empresariales complejas para la computación en la nube, la IA, el almacenamiento de big data, el HPC y la gestión de procesos empresariales.

Artículos relacionados

Server aisle

Hable con los expertos en
Penguin Solutions

En Penguin, nuestro equipo diseña, construye, implementa y administra soluciones empresariales de HPC e IA de alto rendimiento y alta disponibilidad, lo que permite a los clientes lograr sus innovaciones revolucionarias.

Comuníquese hoy mismo y analicemos las necesidades de su proyecto de solución de infraestructura.

Hablemos