Tecnología

lunes, 03 de octubre de 2022 | 8:00 am

Cada año aumenta la cantidad de datos que fluyen hacia y a través de los centros de datos

Se espera que para 2025 el 85% de las estrategias de infraestructura de los centros de datos integren opciones de entrega en la nube y en el borde, en comparación con el 20% en 2020.

Compartir
EmailFacebookLinkedInTwitter
(Internacional )

La modernidad trajo consigo un sinfín de desarrollos tecnológicos que nos llevaron a vivir dentro de un mundo hiperconectado, donde prácticamente todos los servicios de los cuales disponemos pasan por la nube.

Esta enorme cantidad de servicios provoca que cada año esté aumentando la cantidad de datos que fluyen hacia y a través de los centros de datos, lo que obliga a los administradores de redes a replantearse la totalidad de la infraestructura de red, desde su fibra de planta externa hasta las topologías utilizadas para mover, enrutar y distribuir petabytes de datos.

Al mismo tiempo, la propia naturaleza de los datos también está cambiando rápidamente. La tendencia hacia un mayor número de aplicaciones con clientes que requieren un rendimiento ultra-confiable y de baja latencia, así como más recursos de procesamiento en edge, ha puesto bajo análisis la definición de lo que es o necesita ser un centro de datos.

Por un lado, el paso a un entorno virtualizado más eficiente basado en la nube permite a los centros de datos aprovechar las economías de escala. De hecho, se espera que para 2025 el 85% de las estrategias de infraestructura de los centros de datos integren opciones de entrega en la nube y en el borde, en comparación con el 20% en 2020.

Ahora, al reunir los equipos activos en una estructura centralizada, los centros de datos pueden obtener ahorros sustanciales en términos de energía, mantenimiento y otras eficiencias operativas. Por otro lado, la afluencia de datos ultra-confiables y de latencia ultra-baja, implica la necesidad de situar más recursos informáticos cerca de los dispositivos y las personas que producen y consumen los datos.

Esta tendencia dicta que hay que empujar más equipos activos al borde de la red. Un gran reto es que el ancho de banda es finito y caro, por lo que los administradores de la red deben priorizar qué información necesita ser canalizada de vuelta al núcleo y qué puede permanecer en el borde.

Incluso definir la ubicación del centro de datos al borde puede ser difícil. En el caso de centro de datos hiperscala el borde puede estar en un MTDC, en un gabinete a pie de calle, o en una instalación de fabricación situada a kilómetros del núcleo. La variedad de escenarios de despliegue y los requisitos de ancho de banda dictan las capacidades y configuraciones de la infraestructura.

Adaptarse a los nuevos requisitos del núcleo al borde significa que las infraestructuras de red deben ser más rápidas y flexibles. Ya estamos viendo cómo las velocidades de 400 G y superiores están afectando a los diseños de las redes. A partir de 400 G, se están diseñando más aplicaciones para un cableado de 16 fibras.

Esto está provocando un cambio en la conectividad tradicional basada en diseños cuádruples a los diseños octales construidos con conectores MPO de 16 fibras. Una configuración de 16 fibras duplica el número de salidas por transceptor y proporciona soporte a largo plazo desde 400 G hasta 800 G, 1.6 T y más allá. El diseño de 16 fibras se convertirá en la base de las conexiones del núcleo-al-borde (core-to-edge) de mayor velocidad.

Por Kam Patel, Hyperscale and Service Provider Data Center Solutions

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

multimedia