Anuncio
Anuncio
Anuncio
Anuncio
© micron
Semiconductores |

Micron inicia la producción en volumen de la memoria HBM3e

La mayor empresa de memoria de los Estados Unidos, Micron, se ha unido a la carrera para competir en el espacio de la próxima generación HBM3e, y afirma que sus nuevos productos serán utilizados por Nvidia.

La competencia se centra en satisfacer la voraz demanda de los centros de datos de memoria que combina un alto rendimiento con un bajo consumo de energía. En este momento, HBM2 y HBM3 representan la vanguardia, y Nvidia ya ha lanzado su GPU H100 AI con memoria HBM3. La nueva GPU de inteligencia artificial Instinct MI300X de AMD también incluye HBM3.

Pero HBM3e está próximo y está atrayendo mucha atención de empresas avanzadas de diseño de chips. Nvidia afirma que sus GPU H200 AI mejoradas y Blackwell B100 AI incluirán HBM3e, al igual que la nueva GPU de inteligencia artificial Instinct MI300X de AMD.

Micron sostiene que su nueva oferta HBM3e consumirá un 30% menos de energía que la competencia, ofreciendo velocidades de pin de 9.2 Gbit/s y un ancho de banda total de 1.2 Tbyte/s. Afirma que sus componentes HBM3e de 24 Gbytes y 8 capas altas serán parte de las GPU de núcleo tensor H200 que Nvidia comenzará a enviar en el segundo trimestre de 2024.

"Con este hito de HBM3e, Micron ofrece una tripleta: liderazgo en el tiempo de llegada al mercado, rendimiento líder en la industria y un perfil de eficiencia energética diferenciado", dijo Sumit Sadana, EVO en Micron. "Las cargas de trabajo de inteligencia artificial dependen en gran medida del ancho de banda y la capacidad de la memoria, y Micron está muy bien posicionado para respaldar el significativo crecimiento de la inteligencia artificial a través de nuestro avanzado roadmap de HBM3E y HBM4, así como nuestra completa cartera de soluciones de DRAM y NAND para aplicaciones de inteligencia artificial".


Anuncio
Anuncio
Cargar más noticias
April 26 2024 9:38 am V22.4.33-2