Akamai Technologies ha marcado un hito importante en la evolución de la inteligencia artificial al presentar la primera implementación a escala mundial del diseño de referencia NVIDIA AI Grid.
Al integrar la infraestructura de IA de NVIDIA en la suya y aprovechar la orquestación inteligente de cargas de trabajo en toda su red, Akamai pretende llevar al sector más allá de las fábricas de IA aisladas hacia una red unificada y distribuida para la inferencia de IA.
Esto supone un paso significativo en la evolución de Akamai Inference Cloud, presentada a finales del año pasado. Akamai, la primera empresa en poner en marcha la red AI Grid, está implementando miles de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, lo que proporciona una plataforma que permite a las empresas ejecutar IA con agentes y física, con la capacidad de respuesta de la computación local y la escala de la web global.
“Los centros de IA se han diseñado específicamente para la formación y las cargas de trabajo de modelos de vanguardia, y la infraestructura centralizada seguirá ofreciendo los mejores resultados en términos de tokenómica para esos casos de uso”, afirma Adam Karon, director de operaciones y director general del Cloud Technology Group de Akamai.
El núcleo central de AI Grid consiste en un coordinador inteligente que actúa como intermediario en tiempo real para las solicitudes de IA. Al aplicar la experiencia de Akamai en la optimización del rendimiento de las aplicaciones a la IA, este plano de control sensible a la carga de trabajo optimiza la «tokenómica», mejorando así el coste por token, el tiempo hasta el primer token y el rendimiento.
Una de las principales características que diferencian a Akamai es su capacidad para que los clientes accedan a modelos ajustados o dispersos a través de su enorme presencia global, lo que supone una gran ventaja en términos de costes y rendimiento para la larga cola de cargas de trabajo de IA.
Impulsada por la demanda empresarial, la plataforma también ha sido validada por los principales proveedores de tecnología, entre los que se incluye un contrato de servicio de cuatro años por valor de 200 millones de dólares estadounidenses para un clúster de miles de GPU en un centro de datos construido específicamente para la infraestructura de IA empresarial en el borde metropolitano.
Para las empresas, esto significa poder implementar agentes de IA sensibles al contexto y adaptables en su capacidad de respuesta. Para la industria, esto representa un modelo de evolución de las fábricas de IA desde instalaciones aisladas hasta convertirse en una utilidad distribuida a nivel mundial.
Fuente: Akamai








