Akamai presenta AI Grid Intelligent Orchestration

Akamai Inference Cloud es la primera implementación a escala mundial de NVIDIA AI Grid en el sector, ya que distribuye de manera inteligente las cargas de trabajo de IA entre sus infraestructuras regionales y centrales de edge con el objetivo de equilibrar la latencia, el coste y el rendimiento.

Akamai Technologies ha marcado un hito importante en la evolución de la inteligencia artificial al presentar la primera implementación a escala mundial del diseño de referencia NVIDIA AI Grid.

Al integrar la infraestructura de IA de NVIDIA en la suya y aprovechar la orquestación inteligente de cargas de trabajo en toda su red, Akamai pretende llevar al sector más allá de las fábricas de IA aisladas hacia una red unificada y distribuida para la inferencia de IA.

Esto supone un paso significativo en la evolución de Akamai Inference Cloud, presentada a finales del año pasado. Akamai, la primera empresa en poner en marcha la red AI Grid, está implementando miles de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, lo que proporciona una plataforma que permite a las empresas ejecutar IA con agentes y física, con la capacidad de respuesta de la computación local y la escala de la web global.

“Los centros de IA se han diseñado específicamente para la formación y las cargas de trabajo de modelos de vanguardia, y la infraestructura centralizada seguirá ofreciendo los mejores resultados en términos de tokenómica para esos casos de uso”, afirma Adam Karon, director de operaciones y director general del Cloud Technology Group de Akamai

El núcleo central de AI Grid consiste en un coordinador inteligente que actúa como intermediario en tiempo real para las solicitudes de IA. Al aplicar la experiencia de Akamai en la optimización del rendimiento de las aplicaciones a la IA, este plano de control sensible a la carga de trabajo optimiza la «tokenómica», mejorando así el coste por token, el tiempo hasta el primer token y el rendimiento.

Una de las principales características que diferencian a Akamai es su capacidad para que los clientes accedan a modelos ajustados o dispersos a través de su enorme presencia global, lo que supone una gran ventaja en términos de costes y rendimiento para la larga cola de cargas de trabajo de IA.

Impulsada por la demanda empresarial, la plataforma también ha sido validada por los principales proveedores de tecnología, entre los que se incluye un contrato de servicio de cuatro años por valor de 200 millones de dólares estadounidenses para un clúster de miles de GPU en un centro de datos construido específicamente para la infraestructura de IA empresarial en el borde metropolitano.

Para las empresas, esto significa poder implementar agentes de IA sensibles al contexto y adaptables en su capacidad de respuesta. Para la industria, esto representa un modelo de evolución de las fábricas de IA desde instalaciones aisladas hasta convertirse en una utilidad distribuida a nivel mundial.

Fuente: Akamai

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias relacionadas
Total
0
Share