Anuncio
Anuncio
© AMD
Análisis |

AMD adquiere Brium para mejorar el ecosistema de software Open AI

AMD dijo que la adquisición era un reflejo de su compromiso estratégico con la IA. Esta es la cuarta adquisición estratégica de AMD en los últimos dos años; el gigante de los semiconductores adquirió previamente Silo AI, Nod.AI y Mipsology.

El gigante estadounidense de semiconductores AMD anunció la adquisición de Brium, una startup de optimización de software de IA.

"Brium aporta capacidades de software avanzadas que fortalecen nuestra capacidad para ofrecer soluciones de IA altamente optimizadas en toda la pila", escribió Anush Elangovan, vicepresidente corporativo de desarrollo de software en AMD, en una publicación en línea. "Su trabajo en tecnología de compiladores, marcos de ejecución de modelos y optimización de inferencia de IA de extremo a extremo desempeñará un papel clave en la mejora de la eficiencia y flexibilidad de nuestra plataforma de IA".

AMD dijo que la adquisición era un reflejo de su compromiso estratégico con la IA. Esta es la cuarta adquisición estratégica de AMD en los últimos dos años; la compañía adquirió previamente Silo AI, Nod.AI y Mipsology.

No se sabe mucho sobre Brium. Pero según una publicación en línea en su sitio web con fecha del 12 de noviembre de 2024, Brium dice que está "dedicada a habilitar aplicaciones de ML en un conjunto diverso de arquitecturas y a desbloquear las capacidades de hardware a través de elecciones de ingeniería, realizadas en cada nivel de la pila, desde sistemas de inferencia de modelos, pasando por sistemas de tiempo de ejecución y marcos de ML, hasta compiladores".

En el lado del software, la inferencia de LLM se ha vuelto crucial para aplicaciones que van desde la comprensión de video hasta la generación aumentada por recuperación, la asistencia de código e incluso nuevos enfoques de cadena de pensamiento que mejoran la precisión del modelo, dice la publicación de Brium.

"El equipo de Brium ha estado trabajando para superar los límites del rendimiento de LLM de contexto largo en varias arquitecturas de GPU, optimizando cada capa de la pila de inferencia", dice la publicación de 2024.


Anuncio
Anuncio
Cargar más noticias
© 2025 Evertiq AB June 02 2025 12:22 pm V24.1.7-1