Volver

Principales tendencias y predicciones en Data Centers a observar en 2016

modern-data-center

Qué cambios hay en almacenamiento en la nube y en la industria del data center en 2016? Averiguamos lo que se dice hablando con los expertos en la industria Lars StrongBruce Taylor, Vince Renaud, y Ian Seaton, esto es lo que ellos tienen que decir:                                                                 

Como las densidades siguen creciendo y los presupuestos se mantienen apretados, la necesidad de lograr la mayor capacidad de enfriamiento al menor costo de operación posible es un imperativo. Veo esta necesidad orientando tres tendencias en el enfriamiento del data center:

 

1. Hibridización

Hay muchos elementos que componen el "sistema" de enfriamiento. Y para cada uno de estos elementos hay muchas opciones para elegir. El tipo de enfriamiento para la unidad, la clase de ventilador, el diseño de las baldosas perforadas, el diseño del rack, la distribución física de los equipos en el área blanca, el diseño de los equipos de TI, y otros más, que afectan cómo funcionará el sistema. Estoy viendo mucha más experimentación y opciones por parte de los fabricantes de componentes de refrigeración y mucha más experimentación con diferentes combinaciones de componentes por parte de los usuarios finales. Soy optimista acerca de esta tendencia, ya que con la experimentación viene la comprensión, tanto de la naturaleza de la dinámica de la refrigeración y los métodos que trabajan para ciertas condiciones particulares de cada data center. Espero que esta tendencia de experimentación continúe. Si bien hay algún costo asociado, el potencial de ahorro en el largo plazo, y la confianza que se encuentra en una solución superan por mucho los costos. 

2. Más Educación en Enfriamiento y Mitos Persistentes

Con un creciente número de soluciones para mejorar la eficiencia y capacidad de enfriamiento hay un aumento en la educación acerca de estos métodos y la ciencia de refrigeración en general. Tomar una decisión para implementar soluciones como la refrigeración directa o indirecta por evaporación requiere de una mayor comprensión sobre la dinámica térmica y las condiciones ambientales, y como tal, cada vez hay más material educativo. Sin embargo, incluso con un aumento de la educación disponible estoy viendo que una serie de mitos sobre la ciencia de enfriamiento permanecerá. Dentro de estos mitos se encuentran la mala comprensión y aplicación de la ciencia del sonido. Al aumentar los métodos posibles para enfriar las salas de cómputo también lo hace la posibilidad de mala de comprensión de la ciencia de refrigeración. Mi recomendación es buscar a expertos independientes. Si alguien, un "experto", no puede explicar un concepto de una manera fácilmente comprensible y simple, ellos mismos no podrán entender todas los asuntos interrelacionadas.

3. Incremento en la concientización sobre los fundamentos de Manejo de Flujo de Aire

Si bien hay muchas estrategias para configurar la refrigeración de una sala de cómputo, los pre requisitos para una refrigeración eficaz y eficiente siguen siendo los mismos. Estos son; sellar las aberturas de paso de cables, si hay un piso elevado, el uso de paneles ciegos, y el cierre de los espacios en las filas de racks. Si bien puede parecer egoísta para mí decir que esto es una tendencia. El cuidado de estos pre requisitos de Manejo de Flujo de Aire son, sin duda, gran parte de lo que he estado recomendando en la última década de mi carrera. Sin embargo, como asisto a conferencias y ferias comerciales en todo el país y el mundo estoy viendo con mayor frecuencia temas en las sesiones sobre aspectos básicos del Manejo de Flujo de Aire. También, presentadores que menudo se refieren a los fundamentos del Manejo del Flujo de Aire. Ya sea porque están obligados a obtener el máximo provecho de su solución de refrigeración, o porque el presentador está señalando que en su visita a los sitios ve a menudo un margen de mejora y sabe lo importante que son los fundamentos.

– Lars Strong

 


 

1. El Crecimiento nos tomará fuera de base

En el campo de las megatendencias se moverán a nivel mundial más rápido de lo que nadie espera. Lo he dicho antes públicamente - el crecimiento de los datos de todas las fuentes de todos nosotros nos tomarán con la guardia baja. Estimaciones conservadoras indican que cruzaremos los 50 zettabytes (1021 en sistema decimal) de datos en tráfico en redes, procesamiento, almacenamiento y uso en todos los ámbitos del quehacer humano. A principios de la década, el término no se había acuñado, a finales de este año, estamos en más de 5 zb. (Gran parte de este crecimiento se encuentra en la IoT (Internet de las Cosas) / E - a finales de la década, 25 millones de dispositivos digitales de todo tipo estarán conectados a Internet.)

2. Capacidad e Innovación

Si tuviéramos que depender de las TIC existentes, los data center y la infraestructura en la nube para gestionar el crecimiento de datos y el tráfico, tendríamos que usar toda la energía del mundo disponible a final de la década. Eso no va a suceder, ¿verdad? Vamos a añadir capacidad a lo existente en todas las áreas. Y vamos a innovar a un ritmo cada vez mayor.

3. La Nube va a Impactar los Precios del Data Center

La nube es ahora y continuará interrumpiendo y des-intermediando los modelos de fijación de precios para la industria de los data center. Al mismo tiempo, las empresas están eliminando de sus data center obsoletos, es cada vez más frecuente pasar por alto el colocation a servicios gestionados de arrendamiento de nube híbrida por su ventajosa flexibilidad, agilidad y precio.

4. Dominio de la Nube

La Nube continuará fuertemente dominada por AWS (Amazon Web Services), Google, Microsoft, IBM y con todo el mundo tratando de ponerse al día. Y, al mismo tiempo, los servicios de nube se ofrecerán en todo tipo de entornos colocation / hosting / hoteling. Rackspace tiene la intención de ser una nube neutral .

5. Data Centers en Mega escala

Los data center se moverán cada vez más hacia la mega-escalas (Por ejemplo, el Plan Michigan SuperNAP  de Switch de $ 5B, en el sitio del viejo campus Steelcase Pyramid), por lo tanto,se presenta un tirón compensatorio mucho menor en los centros de datos de red de última generación logrando de esta forma vencer la latencia del rap en la red. Las nuevas arquitecturas físicas no delimitadas a causa del viejo pensamiento sobre racks y filas (Por ejemplo, la cámara de vapor Vapor.io mostrada por primera vez en el DCD de Europa en Londres a mediados de noviembre) y que a su vez determinó las principales nociones sobre la capacidad en rack, la eficacia de energía y la gestión térmica.

6. La Necesidad de Desarrollo y Operaciones

Si su departamento de TI en la empresa no tiene ahora un equipo DevOps (Desarrollo / Operación) o su equivalente, entonces usted está fuera del negocio, y simplemente no ha visto todavía el memo de sus clientes. Estamos firmemente en la era de la web, e-hyperscaling de los centros de datos, la llamada Tercera Plataforma. Si usted no ve su negocio a través de esta lente, entonces usted está atrás de la curva competitiva.

7. Innovación en Diseño

En cada ámbito de la tecnología del data center, la innovación está llegando a una velocidad impresionante. Tiene que seguir el ritmo de crecimiento de la demanda. La próxima década verá más transformación en el diseño de data center que en los últimos 50 años.

8. Convergencia de TI y Facilidades

El almacenamiento de estado sólido (flash), la fotónica de silicio, los Dockers (contenedores de software de código abierto para virtualización en Linux) como contenedores y microservidores de disgregación que están disponibles, la hiper convergencia, micro-redes inteligentes, las alternativas de refrigeración X definidas por software. Estamos avanzando inexorablemente hacia la pila (stack) completa pues la infraestructura de las instalaciones "Norte del rack" de TI y "Sur del Rack" están verdaderamente convergiendo en el data center.

9. Cargas de Trabajo Basadas en la Arquitectura

Las arquitecturas de sistemas basadas en la carga de trabajo. La orquestación y gestión de la nube se convierten en la siguiente gran oferta de nubes; las arquitecturas de nubes privadas, híbridas, públicas y múltiples.

10. Disponibilidad en funcionamiento en el SDDC (Software Defined Data Center - Data Center Definido por Software)

El rendimiento de la red y de la nube ahora permite la recuperación de desastres, la conmutación por error, la continuidad del negocio, y el pleno respaldo para ahora ser abstraído en un plano por encima del data center físico. La disponibilidad de tiempo de actividad será tanto o más una cuestión de redes definidas por software (SDN Software Defined Network) así como Data Center Definido por Software el SDDC, en la parte de las instalaciones físicas redundantes  o la capacidad de recuperación operacional.

– Bruce Taylor

 


 

Vemos un crecimiento general de la automatización de la infraestructura del centro de datos y el entorno crítico. Esto viene en forma de SCADA, BMS, EMDS, y otros sistemas de control. Algunos elementos que debe saber sobre la implementación de este tipo de sistemas de control:

We see a general growth in automation of the data center infrastructure and critical environment. This comes in the form of SCADA, BMS, EMDS, and other control systems. Some items to know about deploying such control systems:

1. Amenaza de Hackers

Muchos están diseñados para "llamar a casa", ya sea mediante una conexión a internet o por una interfaz técnica con el sistema a través de un computador portátil. Esta capacidad de conectarse al sistema a través de fuentes externas es una vulnerabilidad que abre la puerta para que los hackers puedan infiltrarse en estos sistemas de control y potencialmente causar daños.

2. Plan para Apagones (Cortes de energía)

Aunque el despliegue de la automatización en el data center permite la ejecución de tareas simples pulsando un botón, muchos operadores no comprenden la secuencia de funcionamiento detrás de ellos, y qué hacer si el sistema falla o se apaga. Esto deja el data center vulnerable a las interrupciones. Muchos operadores confían demasiado en los vendedores que hacen el mantenimiento o los cambios en estos sistemas y caen en la complacencia. Al igual que un piloto de un avión tiene que ser capaz de aterrizar un avión en caso de emergencia en el modo manual, también, los operadores de los data center deben ser capaces de "maniobrar" su infraestructura durante una emergencia o acontecimiento imprevisto.

3. Gestión del Cambio a la Infraestructura

El hecho de que un data center sea automático no niega la necesidad de desarrollar, probar e implementar un riguroso conjunto de políticas y procedimientos para las desviaciones de la configuración estándar (esto también se debe documentar). La gestión del cambio a la infraestructura es importante ya que muchos trastornos se producen cuando el sitio está en una configuración anormal.

– Vince Renaud

 


 

1. Enfriamiento Líquido será un Gran Jugador

Intel ha lanzado un nuevo conjunto de chips que puede ser construido entre 50-60kW de potencia informática en un espacio de 40-50 U (Unidad de Rack = 1,75 pulgadas / 44,45 mm). La refrigeración para este tipo de rack con una rata de flujo de aire estándar CFM:kW requerirá en cualquier parte del rack por encima de 6000 CFM (Pies Cúbicos por Minuto) y hasta 9400 CFM de aire acondicionado. Este requisito de flujo de aire necesitará en un data center estándar de una unidad de aire acondicionad de precisión por cada 2-3 racks y esto no es imposible, pero no es muy práctico. Este puede ser el año donde veamos en el nicho de mercado de la computación de alto desempeño inversiones mayores hacia alguna forma de refrigeración líquida de contacto directo. No debemos ser despectivos de estas aplicaciones de nicho por ser desarrollos e investigaciones de laboratorio; después de todo, lo que hace tan solo 10 años eran los gabinetes de chimenea fueron desarrollados para permitir cargas de 15-20kW en laboratorios de investigación de alta densidad tanto en la universidad como de la industria. Después de unos pocos años de incubación, esta tecnología se convirtió en omniprensente, y se transformó de ser una solución de densidad a una solución de eficiencia.

2. Eliminación Gradual del Enfriamiento Mecánico

En la encuesta de centros de datos del Uptime Institute de 2014, el 24% de los encuestados dijo que consideraría un data center sin refrigeración mecánica. Los nuevos servidores de Dell promocionan que cumplen con la Clase de A3 ASHRAE  (hasta 40°C (104°F)) de Temperatura a la entrada del servidor) para el 10% del total de horas anuales de operación y ser compatible con la Clase A4 (hasta 45°C (113°F)) durante el 1% del año. Mientras estos rangos pueden ser limitados en algunos períodos del año, resulta que casi cualquier lugar habitable en los Estados Unidos, donde un data center se podría construir caerá dentro de esos límites. 2016 no puede ser el punto de inflexión, todavía, en la construcción de nuevos data center sin refrigeración mecánica, sobre todo porque gran parte de la nueva construcción es para la nube, hosting y co-location, los cuales seguirán siendo impulsados más para la comercialización según la percepción del mercado que para la realidad, pero las estrellas aparecerán lentamente alineadas al movimiento en esa dirección.

3. Industrialización del Data Center

La tendencia hacia la industrialización del data center continuará ganando tracción. Mientras que la visión más tradicional de la sala de computadores como otro cuarto en el edificio con un montón de computadores se seguirá manteniendo con cierta influencia para los data center de menor tamaño, los data center corporativos, las TI, y las instalaciones viewpoint para data center comerciales de gran tamaño continuarán convergiendo. A medida que estas disciplinas reconocen su interdependencia mutua, la integración evolutiva de elementos mecánicos, arquitectónicos, eléctricos y electrónicos en una máquina cohesiva que promueve el paso de la provincial  sala de computadores a los data center industrializados. La creciente solidez de herramientas DCIM (Data Center Infraestructure Management) y la capacidad de moverse con facilidad a grandes negocios dentro de la nube y todas las nuevas protecciones de seguridad física y virtual, todo ello contribuye a este desarrollo en curso.

4. “Sostenibilidad” En todo lado

2016 puede ser el año en que la palabra "sostenibilidad" pasa por el punto de "usaba sin sentido." En el lado positivo de la balanza de inflexión, tenemos algunos ejemplos como Google que compra de 61 MW de energía solar de Duke Energy y los 100MW de energía eólica que Amazon acordó comprar mediante de la firma de acuerdos a energía de Ohio y Equinix va a comprar energía eólica suficiente en Texas y Oklahoma para alimentar todos sus sitios de América del Norte. Además, Apple está apoyando una investigación en Irlanda sobre el uso de flujo de las mareas o la energía de las olas para la potencia de su data center. (Recuerde historias sobre la patente de Google sobre el aprovechamiento de la energía de las mareas?) Y que abre la puerta a algún uso no legítimo de la "sostenibilidad". Por ejemplo, Nautilus ha promocionado su solución a base de agua del data center como "el data center más ambientalmente sostenible en el mercado", mientras que está utilizando el agua del océano para refrescarlo, pero cualquiera que sea la energía comercial está disponible para la alimentación de TI. Cuando yuxtaponemos algo de marketing creativo en contra de este contexto y el enfoque de la administración de Obama del Plan de Energía Limpia, podemos esperar una proporción mucho más alta de la "sostenibilidad" para "otros morfemas" en los comunicados de prensa y publicaciones pseudo-técnicas en el próximo año.

5. Hágalo o Muera para DCIM (Data Center Infrastructure Management - Administración de la Infraestructura del Data Center)

¿Será 2016 el año en que el DCIM alcance su punto de inflexión, o va a ser el año en que sólo se vuelca desde su propia hinchazón? Eso puede ser una pregunta más razonable que los vendedores y los pronosticadores de mercado están dejando sucesivamente. Tengamos en cuenta que CA, una de las cuatro grandes proveedores de soluciones DCIM, recientemente decidió tirar la toalla y en 2015 la encuesta de data center del Uptime Institute reveló que casi la mitad de sus encuestados tampoco tenía planes para perseguir DCIM o lo habían evaluado y regresado de nuevo. Además, una cuarta parte de los encuestados que habían aplicado con éxito DCIM informó que tomó más de un año para completar la implementación y aproximadamente la mitad de las empresas encuestadas dijeron que no podían justificar el pobre rendimiento de la inversión. Los expertos permanecerán encaprichado con la idea, pero vamos a ver el año que viene si realmente se pone sobre la chepa.

6. IoT (Internet of Things - Internet de las Cosas) Continuará Creciendo

El Internet de las cosas ha sido una palabra de moda desde hace un tiempo y la tendencia de conectar más cosas a internet continuará. Gartner e IDC predicen que habrá entre 25 mil millones y 30 mil millones de cosas conectadas a internet en 2020, lo que tiene implicaciones significativas en la escala del data center y su funcionalidad, así como la capacidad de almacenamiento. Esa pendiente de  crecimiento es probablemente más logarítmica que aritmética y es probable que nuestra falta de imaginación esté subestimando tanto su ámbito de aplicación, como su trayectoria.

7. Incremento de las Cargas de Trabajo de los Servidores

Según el Índice Global de la Nube de Cisco, las cargas de trabajo de servidor en la nube aumentarán un 64,7% y las cargas de trabajo de servidores empresariales aumentarán un 60% en 2019 con respecto al año pasado. Será interesante ver qué correlación puede haber entre la densidad de crecimiento de los servidores frente a la de crecimiento de densidad del rack y de los bienes raíces.

8. Enter, el borde del Data Center

A medida que aumenta el tráfico donde la latencia es de primordial importancia, como en cualquier tipo de streaming y en aplicaciones más críticas para la vida, tales como automóviles sin conductor ganan algo de atención, las redes de borde o data centers de borde ganarán más atención el próximo año. El desarrollo más importante en realidad podría ser que una parte importante de nuestra industria realmente supiera lo que es el borde. El primer desarrollo importante debe ser una especie de sacudida para ayudarnos a entender si un data center de última generación es un pequeño data center en un segundo o tercer nivel de mercado o si se trata de algún tipo de módulo plug-and-play. La pregunta será si la proximidad al usuario es la proximidad a una zona de la ciudad o un área remota o si se trata de la proximidad de un edificio o en el piso dentro de un edificio más grande. ¿Cómo se responde a esa pregunta determinará en última instancia si el borde representa un mercado de hardware importante o un mercado de software significativo.

– Ian Seaton

Versión libre al español por Gerardo Alfonso, Ingeal.

 

Volver