No nos engañemos, NVIDIA lleva un buen tiempo siendo el rey en el mundillo de las GPUs para inteligencia artificial. O sea, si uno piensa en chips para IA, lo primero que viene a la mente es NVIDIA. Pero bueno, AMD no se va a quedar cruzada de brazos viendo cómo se llevan el 90% del mercado de centros de datos. Y aquí entra en escena la nueva serie Instinct MI325X, que viene a ver si logra aguarle la fiesta a NVIDIA.
Las nuevas MI325X: ¿De qué va el cuento?
AMD acaba de soltar sus nuevas Instinct MI325X, las sucesoras de las MI300X, con la idea de competir directamente con las B200 de NVIDIA. Pero no solo se trata de dar pelea; AMD promete que estos chips pueden ser hasta un 40% más potentes en tareas de inferencia de IA. Por ejemplo, en escenarios como el entrenamiento de modelos grandes o en tareas de inferencia complejas, las MI325X parecen ofrecer una mejora significativa en velocidad y eficiencia frente a las B200, especialmente en términos de gestión de memoria y procesamiento paralelo. Eso es como decir: «Ey, NVIDIA, tenemos algo aquí que podría, quizás, hacer que la gente se lo piense dos veces».
- Arquitectura: Estas GPUs están basadas en la arquitectura CDNA 3.
- Memoria y ancho de banda: Vienen con 256 GB de memoria HBM3E, alcanzando unos espectaculares 6 TB/s de ancho de banda.
Lo de la memoria es clave, porque dicen que tienen 1,8 veces la capacidad de las H200 de NVIDIA. Pero a ver, no seamos ingenuos, falta ver en la práctica si esto se traduce en rendimiento real y si los desarrolladores se animan a dar el salto.
¿Qué tanto puede AMD desafiar a NVIDIA?

Hablemos claro, NVIDIA no solo vende hardware. También tiene CUDA, que es la plataforma de software que la gran mayoría de los desarrolladores adora. La cosa es que NVIDIA se ha convertido en el estándar dorado gracias a esa combinación de chips y software. Y AMD, aunque ha lanzado su alternativa llamada ROCm, lo tiene bien difícil para destronar a CUDA. La pregunta entonces es: ¿vale la pena el cambio?
Cambiar de CUDA a ROCm es como pasarse de Windows a Linux: tiene su gracia, pero no es para todos.
Hay mucho dinero en juego. Estamos hablando de un mercado que, según AMD, va a valer 500.000 millones de dólares en 2028. Y claro, AMD quiere una tajada de esa torta. Lisa Su, la CEO de AMD, lo tiene claro: la demanda va a crecer y ellos quieren estar ahí, pero la tarea no es nada fácil. Los desafíos incluyen problemas de producción, como la falta de una cadena de suministro estable para competir con la capacidad de fabricación de NVIDIA, y las limitaciones del ecosistema de software, donde ROCm aún no ha alcanzado la madurez y aceptación que tiene CUDA.
Los planes de AMD: mirando al futuro
AMD no se va a quedar solo con las MI325X. Ya han anunciado que para 2025 van a sacar las MI355X, basadas en la arquitectura CDNA 4, y que serán hasta 35 veces más potentes que las MI300X de 2023. Y luego, en 2026, llegarán las MI400. Pero bueno, ya veremos si todo eso se cumple. Hay que recordar que, al final, todas estas promesas de rendimiento se topan con la cruda realidad de la implementación y la aceptación del mercado.
Si algo hemos aprendido, es que el papel lo aguanta todo, y las presentaciones siempre se ven mejor de lo que resulta ser al final. Pero si las MI355X cumplen lo que dicen, podría ponerse interesante. Imagínate un 2025 con AMD de verdad compitiendo mano a mano contra las nuevas tarjetas Blackwell de NVIDIA. Estas tarjetas Blackwell se destacan especialmente en eficiencia energética y rendimiento por watt, además de ofrecer una integración perfecta con el ecosistema CUDA, lo cual les da una gran ventaja. AMD espera igualar o incluso superar a Blackwell en rendimiento bruto y en memoria HBM3E de alta capacidad, así como en ofrecer una mejor relación calidad-precio para los centros de datos. Ahí sí estaría divertido.
Lo de la disponibilidad: una carrera contra el reloj
En este punto, también hay que mencionar el tema de la disponibilidad. NVIDIA tiene en sus manos las B200, pero su producción y disponibilidad real aún son un poco inciertas. AMD, por su parte, ya está preparando el terreno para que las MI325X empiecen a salir al mercado antes de que termine este año. Se supone que a comienzos de 2025 ya habría servidores con estas nuevas tarjetas de AMD, gracias a empresas como Dell, HP, Lenovo y otras.
En este sentido, AMD podría adelantarse, aunque sea un poco, a NVIDIA. Claro que, adelantarse con un producto que nadie quiere o que no tiene el software que lo respalde, tampoco serviría de mucho. AMD aún enfrenta problemas con la integración de su software ROCm, que carece del nivel de compatibilidad y optimización que CUDA ofrece, así como limitaciones en soporte para bibliotecas y frameworks populares que dificultan su adopción en entornos de desarrollo reales. En fin, depende de cómo el mercado y los desarrolladores reaccionen.
Memoria HBM3E: ¿Un verdadero diferencial?
El tema de la memoria es interesante. 256 GB de HBM3E suenan como un montón. Y el ancho de banda de 6 TB/s también impresiona. Pero, ¿de verdad esto marca una gran diferencia? Pues depende. La cosa es que para ciertas tareas de IA, la memoria puede ser un cuello de botella, y tener más memoria de alta velocidad podría ser el truco que AMD necesita para, al menos, convencer a algunos jugadores grandes de la industria.
Claro, la capacidad y el ancho de banda son buenos titulares, pero la realidad es que lo que importa es el rendimiento en escenarios del mundo real. Y ahí, NVIDIA sigue dominando por el simple hecho de que todo el mundo ya usa sus herramientas, sus APIs, y están familiarizados con sus pipelines. HBM3E es un gran paso, pero si no tienes las herramientas para aprovecharlo, terminas con un Ferrari que nadie sabe conducir.
La cuota de mercado: el pastel que AMD quiere
Para entender qué está en juego, pensemos en la cuota de mercado. Se estima que NVIDIA tiene el 90% del mercado de GPUs para centros de datos. Y los beneficios son aún más impresionantes: se llevan el 75% de los márgenes brutos. Básicamente, es como si estuvieran jugando solos en la cancha. Y eso, por supuesto, no es algo que AMD quiera dejar pasar.
Lisa Su lo sabe. Sabe que la demanda por GPUs para IA está creciendo y que AMD tiene que estar ahí si quiere una parte de ese gigantesco pastel. Pero claro, querer no siempre es poder. NVIDIA no solo tiene los chips; tiene el ecosistema, tiene CUDA, tiene la confianza de los desarrolladores. AMD tiene un desafío monumental por delante.
CUDA y ROCm: El verdadero duelo
Pongámonos en situación. CUDA es como ese viejo conocido que, aunque no sea perfecto, ya todos saben cómo manejar. No es solo que sea popular; es que está integrado en un montón de aplicaciones, frameworks y en el flujo de trabajo de casi todos los que desarrollan IA. Entonces, AMD puede tener la mejor tarjeta del mundo, pero si los desarrolladores tienen que empezar de cero con ROCm, muchos simplemente dirán: «No, gracias».
Eso es lo complicado. No es solo cuestión de hardware; es la facilidad de uso. Es que ROCm está ahí, sí, pero ¿qué tan bien soportado está? ¿Qué tan bien documentado? Y, sobre todo, ¿qué tan dispuestos están los desarrolladores a cambiar su manera de trabajar solo por unas especificaciones que, sí, suenan geniales, pero que no garantizan nada?
Para decirlo de otra forma, CUDA es el lenguaje que todos hablan y ROCm, aunque quiera ser una alternativa, todavía suena como un dialecto desconocido. Por ejemplo, ROCm actualmente no cuenta con soporte completo para TensorFlow, una de las herramientas más usadas en el desarrollo de IA, lo que hace que muchos desarrolladores lo consideren una opción poco viable para sus proyectos. Así que sí, AMD podría tener la tecnología para competir, pero sin el soporte de la comunidad, la cosa se complica bastante.
La promesa del futuro: MI355X y MI400
Ya hemos hablado de las MI325X, pero los planes de AMD van mucho más allá. Han anunciado la llegada de las MI355X para la segunda mitad de 2025, con un rendimiento prometido que dejaría en vergüenza a las MI300X actuales. Y para 2026, llegarían las MI400, que, bueno, según dicen, serían lo máximo.
Pero ya sabemos cómo son estas cosas. Promesas siempre hay. Y mientras no lo vea, no lo creo. Es fácil decir que vas a ser 35 veces más rápido. Pero ponerlo en la mesa y que funcione es otro cuento. En este negocio, las promesas sin resultados no sirven de mucho. AMD tendrá que demostrar que esos números no son solo humo y espejos.
Resumen Rápido
- AMD presenta las Instinct MI325X: una respuesta directa a las B200 de NVIDIA, prometiendo ser un 40% más potentes en inferencia de IA.
- Memoria HBM3E: 256 GB con 6 TB/s de ancho de banda. ¿Un diferencial real? Aún por ver.
- NVIDIA sigue dominando con CUDA: La plataforma de software más popular y la preferida por los desarrolladores.
- ROCm es la apuesta de AMD, pero le falta el respaldo y la aceptación que CUDA ya tiene.
- Planes futuros: MI355X para 2025 y MI400 para 2026, pero las promesas están por cumplirse.
- Lisa Su quiere un trozo del pastel: AMD busca una parte del mercado de centros de datos que NVIDIA domina casi completamente.
Preguntas frecuentes
1. ¿Qué son las Instinct MI325X de AMD?
Las Instinct MI325X son las nuevas GPUs de AMD para centros de datos, diseñadas para competir con las B200 de NVIDIA en el mercado de la inteligencia artificial. Se basan en la arquitectura CDNA 3 y prometen un rendimiento de inferencia un 40% superior.
2. ¿Qué ventajas tienen las MI325X respecto a las tarjetas de NVIDIA?
Las MI325X cuentan con 256 GB de memoria HBM3E y un ancho de banda de hasta 6 TB/s, lo que les da una ventaja en cuanto a capacidad y velocidad. Sin embargo, la aceptación de estas ventajas dependerá del ecosistema de software y la implementación.
3. ¿Qué es CUDA y por qué es importante?
CUDA es la plataforma de software de NVIDIA que facilita el desarrollo de aplicaciones de IA usando sus GPUs. Es la más popular y cuenta con un gran respaldo de la comunidad, lo que la convierte en un factor crucial para la preferencia de los desarrolladores.
4. ¿Qué es ROCm y cómo se compara con CUDA?
ROCm es la respuesta de AMD a CUDA, ofreciendo una alternativa abierta para los desarrolladores que quieran usar sus GPUs. Aunque promete ser competitiva, todavía le falta el respaldo y la facilidad de uso que CUDA ya tiene.
5. ¿Cuándo estarán disponibles las MI325X?
AMD ha anunciado que la producción de las MI325X comenzará antes de que termine 2024, y se espera que los servidores que las integren estén disponibles en el primer trimestre de 2025.
6. ¿Cuál es el objetivo de AMD con estas nuevas GPUs?
El objetivo de AMD es reducir la cuota de mercado de NVIDIA en el área de GPUs para centros de datos, que actualmente es del 90%. AMD busca ofrecer una alternativa competitiva para capturar una parte del mercado que se estima valdrá 500.000 millones de dólares en 2028.