Microsoft presenta el chip Maia 200, su nuevo acelerador de IA

Este nuevo desarrollo fortalece la infraestructura de Azure al permitir ejecutar modelos avanzados de forma más rápida, eficiente y rentable, marcando un nuevo hito en la estrategia de silicio propio de la compañía.

Microsoft anunció el lanzamiento de Maia 200, su acelerador de inteligencia artificial de próxima generación, diseñado específicamente para optimizar la inferencia de modelos de IA a gran escala.

Este nuevo desarrollo fortalece la infraestructura de Azure al permitir ejecutar modelos avanzados de forma más rápida, eficiente y rentable, marcando un nuevo hito en la estrategia de silicio propio de la compañía.

Fabricado con el proceso de 3 nanómetros de TSMC, Maia 200 integra más de 140 mil millones de transistores y ha sido diseñado para responder a las crecientes demandas de la inteligencia artificial generativa. De acuerdo con Microsoft, se trata del sistema de inferencia más eficiente que la compañía ha desplegado hasta ahora, con un 30 % más de rendimiento por dólar frente al hardware de última generación de su flota actual.

Maia 200 fue optimizado para modelos que utilizan computación de baja precisión, una tendencia clave en la evolución de los grandes modelos de lenguaje. Cada chip ofrece más de 10 petaFLOPS en precisión FP4 y más de 5 petaFLOPS en FP8, lo que le permite ejecutar sin dificultad los modelos más grandes disponibles hoy, y prepararse para los que vendrán en el futuro.

Además del poder de cómputo, Microsoft puso el foco en uno de los principales cuellos de botella de la IA: el movimiento de datos. Para ello, Maia 200 incorpora un sistema de memoria rediseñado, con 216 GB de HBM3e, 272 MB de SRAM integrada y un ancho de banda de hasta 7 TB/s, lo que se traduce en una generación de tokens más rápida y eficiente.

Según la compañía, este enfoque integral convierte a Maia 200 en uno de los aceleradores más eficientes del mercado, superando en rendimiento FP4 y FP8 a soluciones comparables de otros grandes proveedores de nube.

A nivel de sistemas, Maia 200 introduce una arquitectura de red de dos niveles basada en Ethernet estándar, lo que permite escalar clústeres de hasta 6.144 aceleradores con alta eficiencia, confiabilidad y menores costos energéticos. Dentro de cada bandeja, cuatro aceleradores están completamente interconectados para maximizar el rendimiento en tareas de inferencia intensiva.

Fuente: Microsoft

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias relacionadas
Total
0
Share