Artículo de Pedro Vázquez, miembro del Grupo de Trabajo Talento50+
Hace unos meses asistí a una conferencia sobre datacenters. Lo que me llamó la atención y me animó a presenciarme en la misma no era su contenido tecnológico, sino el foro al que iba dirigida la sesión: el sector inmobiliario. Y, de un tiempo a esta parte, había estado observando el interés y pugna de las administraciones públicas locales por ser hub de centros de datos de grandes actores de este sector.
Una pocas semanas después, el COIT publicaba su número 235 de la revista BIT, con el sugerente título de “La revolución silenciosa de los centros de datos”.
Los centros de datos no son un nuevo concepto, desde luego, pero han despegado con la aparición de las tecnologías de virtualización: hipervisores, maquinas virtuales, contenedores (docker, kubernetes, etc.) y su capacidad asociada para automatizar la provisión de los mismos. Podríamos decir que en la economía digital, hoy todo es datacenter o está en el datacenter y es una de las infraestructuras críticas en los servicios TIC.
La posibilidad de llevar el computo a la nube dio paso a las infraestructuras de los hiper-escalares para aplicaciones y servicios dirigidos a empresas de mayor o menor tamaño:
- Han agilizado y optimizado los servicios TIC de las grandes empresas.
- Han permitido a las pequeñas el acceso a tecnologías y aplicaciones similares a las que podían permitir solo las grandes.
- Y han catalizado la aparición del ecosistema de servicios digitales basados en la nube.
Pero la demanda del uso de datacenters no viene solo de los hiper-escalares.
En los operadores, las Telco han visto como en la industria se han ido introduciendo las técnicas de virtualización para su uso en las funciones de red (NFV). Esto dio paso al uso del computo general para funciones de red y la des-agregación del software y el hardware. Y a un nuevo modo de diseñar la redes de operador basadas en datacenter. Este modo de concebir las redes ha llevado a los operadores se plantearse el uso de infraestructuras propias o de terceros para ubicar sus nodos virtualizados, ya que les permite acelerar despliegues u ofrecer servicios que antes no podían.
En muchos casos de uso o aplicaciones de servicios desplegados en infraestructuras de los centros de datos, la latencia juega un papel relevante y requiere que el computo se acerque al usuario final. Esto implica la distribución de más centros de datos por el territorio nacional para ofrecer ese tipo de servicios. Edge computing o similares son conceptos que capturan esta idea, y, en consecuencia, demandan mas centros de datos a nivel local, más cercanos al usuario final.
Y entonces llego la IA… La inteligencia artificial avanza imparable captando la atención de todos: suministradores, desarrolladores y usuarios finales. La IA llega con su promesa de hacer un mundo más fácil y más productivo. Pero para ello hace falta más capacidad en los datacenters. Los cluster de GPU están obligando al rediseño de los centros de datos. Si para el computo tradicional una arquitectura “spine and leaf” basada en redes de CLOS con doble conexión al servidor era suficiente, para el caso de los cluster de GPU el número de interfaces se eleva a 8, que llevan a diseños con 8 railes. Mas máquinas, más consumo, más datacenter.
Y para hacerlo sostenible, más evolución tecnológica: chipsets mas eficientes energéticamente, refrigeración liquida por circuito o inmersión y más capacidad, con interfaces de 400G, 800G e incluso 1.6T.
Efectivamente, resulta comprensible el interés del sector inmobiliario por posicionarse en el sector de los datacenter. La carrera está en marcha y veremos cuánto de esta inversión somos capaces capturar en territorio nacional.