Las dos primeras generaciones, lanzadas en 2023 y 2024, respaldan las demandas de infraestructura de las cargas de trabajo de IA.
Meta ha anunciado avances en su tecnología de silicio, lo que permite el rápido desarrollo de aceleradores de IA. En colaboración con Broadcom, Meta ha producido cuatro generaciones de Aceleradores de Entrenamiento e Inferencia de Meta (MTIA) – el 300, 400, 450 y 500 – en un plazo de dos años. Estos chips ya están desplegados o programados para su implementación para 2026 o 2027.
Las dos primeras generaciones, lanzadas en 2023 y 2024, respaldan las demandas de infraestructura de las cargas de trabajo de IA, particularmente la IA generativa, a través de diseños eficientes y flexibles. Estos aceleradores son un componente crucial de la infraestructura de IA de Meta, abordando cargas de trabajo que van desde la inferencia de clasificación y recomendación (C&R) hasta el entrenamiento de C&R, cargas de trabajo generales de GenAI e inferencia de GenAI con optimizaciones específicas.
Al adoptar un enfoque iterativo, Meta ha acelerado su ciclo de desarrollo para seguir el ritmo de la rápida evolución de los modelos de IA. Cada generación de MTIA se basa en su predecesora, utilizando un diseño modular de "múltiples chiplets" y un codiseño integrado verticalmente para mantener la compatibilidad a nivel de sistema al tiempo que ofrece mejoras progresivas en el rendimiento. Por ejemplo, el ancho de banda HBM aumentó 4,5 veces desde el MTIA 300 al MTIA 500 (de 6,1 TB/s a 27,6 TB/s), y los FLOPS de cálculo aumentaron 25 veces.