NVIDIA parece marchar a paso imperial en el segmento de la inteligencia artificial. Sus chips son los más deseados, pero poco a poco la competencia va despertando. Que se lo digan a AMD.
Bienvenidas, MI325X. La empresa presentó ayer sus nuevas gráficas "aceleradoras" para centros de datos, las Instinct MI325X. Sucesoras de las MI300X, estos chips están basados en la arquitectura CDNA 3 y entre sus promesas, una destacable: según la empresa llegan a ser hasta un 40% más potentes en inferencia en IA que las B200 de NVIDIA.
Mejoras en memoria. Estos chips se ven acompañados además de 256 GB de memoria HBM3E, lo que permite alcanzar anchos de banda espectaculares de hasta 6 TB/s. Según AMD eso permite contar con 1,8 veces la capacidad que ofrecen las H200 de NVIDIA y con 1,3 veces su ancho de banda.
Precio desconocido. No se conocen los precios de estos chips, que normalmente se comercializan como parte de un servidor completo. La firma sí reveló que en el primer trimestre de 2025 se lanzarán servidores de Dell, Eviden, Gigabyte, HP, Lenovo o Supermicro que precisamente integrarán estas gráficas especializadas.
Cuidado, Blackwell. El pasado mes de marzo NVIDIA presentó los espectaculares chips B200 con la nueva arquitectura Blackwell, pero su disponibilidad no será real hasta dentro de unas semanas. Es por tanto buen momento para la presentación de estas nuevas propuestas de AMD: la producción de las MI325X comenzará antes de que acabe el año, y planteará así una propuesta aprentemente muy competitiva frente a las soluciones de NVIDIA.

La hoja de ruta promete. A las actuales MI325X le sucederán en la segunda mitad de 2025 las MI350, que estarán basadas en la arquitectura CDNA 4 y que están diseñadas para dar un salto colosal en rendimiento de inferencia: hasta 35 veces más que las aceleradoras MI300X de 2023. Para 2026 la evolución continuará con las MI400, de las que no se conocen datos.
AMD, a por un trozo del pastel. En los últimos años NVIDIA ha dominado el mercado de las GPUs para centros de datos —los analistas apuntan a una cuota de hasta el 90%— y eso la ha permitido llevarse un 75% de los márgenes brutos en sus productos. AMD va a complicar ese escenario, y su CEO, Lisa Su, tiene claro que la demanda va a seguir creciendo y quieren lograr su pedazo del jugoso pastel. La empresa de hecho estima que en 2028 este segmento tendrá un valor de 500.000 millones de dólares: hay mucho dinero ahí.
CUDA como gran obstáculo. El problema no solo está en los chips, sino en la popularidad de CUDA, la plataforma software propietaria de NVIDIA que domina este mercado y está ligada a sus chips. AMD ha lanzado su propio software, ROCm, con el que quiere ofrecer una alternativa válida a los desarrolladores. Otros como Intel también intentan moverse con ese mismo objetivo.
Ver 4 comentarios
4 comentarios
Usuario desactivado
El gran obstáculo es CUDA.
Por mucho hardware que saque AMD, mientras la principales librerías de inteligencia artificial, como son pytorch o tensorflow, no se adapten a ROCm el coste de migrar toda la base de código de una empresa puede ser enorme.
Es que no se me ocurre en qué circunstancias le puede salir rentable a una empresa apostar por AMD en estos momentos.
Yo si fuera Lisa Su, invertiría muchísimos recursos en migrar estas dos librerías (las de bajo nivel en c++, no los wrappers) y hacerlas de código abierto. Hasta que no tengan eso no veo como quieren competir con Nvidia en cuanto a IA.
rafaello76
No
luismorales4
Lo de AMD lo veo difícil pero no imposible, habrá que ver los precios y el rendimiento en comparación con una de Nvidia. Otra cosa es el software y controladores de AMD pues son lo que le sigue a la basura.