Anuncio
Anuncio
Anuncio
Anuncio
© Microsoft
Semiconductores |

Microsoft revela dos productos de chips 'hechos en casa'

El gigante de la informática, Microsoft, ha anunciado su entrada al espacio de chips de inteligencia artificial, colocando a la empresa en competencia con Nvidia, Google, Amazon e Intel.

Realizó el anuncio de dos nuevos productos de chips en la conferencia Microsoft Ignite en Seattle. El Microsoft Azure Maia 100 está diseñado para cargas de trabajo de inteligencia artificial, mientras que el procesador CPU Microsoft Cobalt 100 está destinado a cargas de trabajo de cómputo general en la nube de Microsoft.

Los dos chips se implementarán a principios del próximo año en los centros de datos de Microsoft, alimentando inicialmente los servicios de la empresa, como Microsoft Copilot o Azure OpenAI Service.

Microsoft afirma que los productos le ayudarán a satisfacer la creciente demanda de potencia informática impulsada por avances en la nube y en inteligencia artificial. Describe los nuevos chips como la "última pieza del rompecabezas para ofrecer sistemas de infraestructura que... pueden optimizarse teniendo en cuenta las cargas de trabajo internas y de los clientes".

Como tal, los chips internos se integrarán en placas de servidores personalizadas y se colocarán en bastidores hechos a medida que se ajustan fácilmente dentro de los centros de datos existentes de Microsoft. El hardware trabajará de la mano con el software fabricado por Microsoft.

"El software es nuestra fortaleza principal, pero francamente, somos una empresa de sistemas. En Microsoft, estamos co-diseñando y optimizando hardware y software juntos para que uno más uno sea mayor que dos", dijo Rani Borkar, vicepresidenta corporativa de Sistemas y Infraestructura de Hardware de Azure (AHSI). "Tenemos visibilidad en toda la pila, y el silicio es solo uno de los ingredientes".

Para complementar sus esfuerzos de silicio personalizado, Microsoft también anunció nuevas asociaciones industriales para proporcionar más opciones de infraestructura a los clientes. Microsoft lanzó una vista previa de la nueva serie de Máquinas Virtuales NC H100 v5 construida para las GPUs NVIDIA H100 Tensor Core, ofreciendo un mayor rendimiento para el entrenamiento de inteligencia artificial de rango medio y la inferencia generativa de inteligencia artificial. Microsoft también añadirá la última GPU NVIDIA H200 Tensor Core a su flota el próximo año para admitir la inferencia de modelos más grandes sin aumentar la latencia.

La empresa también anunció que agregará máquinas virtuales aceleradas AMD MI300X a Azure. Las máquinas virtuales AMD MI300 están diseñadas para acelerar el procesamiento de cargas de trabajo de inteligencia artificial para el entrenamiento de modelos de inteligencia artificial de alto rango e inferencia generativa, y contarán con la última GPU de AMD, la AMD Instinct MI300X.


Anuncio
Anuncio
Cargar más noticias
April 26 2024 9:38 am V22.4.33-1