Qualcomm ha anunciado dos nuevos aceleradores de inteligencia artificial (IA) pensados para centros de datos: los chips AI200 y AI250. La presentación, que tuvo lugar el 27 de octubre de 2025, muestra claramente la intención de la compañía de entrar en un mercado donde, hasta ahora, mandaban Nvidia y AMD. Todo esto ocurre en un momento en el que cada vez hay más demanda de hardware eficiente para la inferencia de IA.
Los nuevos chips de Qualcomm para IA
Los modelos AI200 y AI250 llegarán en 2026 y 2027, respectivamente. Qualcomm ha diseñado estos chips pensando sobre todo en la eficiencia energética. Según la compañía, con ellos se puede conseguir un consumo máximo por rack de 160 kW usando refrigeración líquida directa. Además, cada tarjeta es capaz de soportar hasta 768 GB de memoria LPDDR, lo que supera a algunas de las soluciones que existen ahora mismo de Nvidia y AMD.
Tras el anuncio, las acciones de Qualcomm subieron bastante, en una franja de entre el 12 % y el 22 % en distintos momentos del día, lo que deja ver el entusiasmo de los inversores. Por su parte, las acciones de Nvidia y AMD se mantuvieron estables y no sufrieron grandes cambios en ese corto plazo.
Objetivo: hacerse un hueco en un mercado en auge
Qualcomm ve este lanzamiento como una forma de entrar en un sector que está creciendo mucho y que moverá, según las previsiones, hasta 6,7 billones de dólares en centros de datos para 2030. La empresa quiere atraer a proveedores de servicios en la nube y grandes compañías que buscan nuevas alternativas, para no depender solo de Nvidia y AMD, que hasta ahora llevan la voz cantante.
Primer cliente: Humain
La startup saudí Humain ha sido el primer cliente en apostar por estos nuevos chips. Su objetivo es usarlos para ampliar su capacidad de IA generativa en Arabia Saudí, un proyecto que necesitará hasta 200 megavatios de energía. Con esta colaboración, Qualcomm espera demostrar que sus chips funcionan bien y son realmente eficientes en situaciones reales.
Opciones y características de los productos
Qualcomm ha presentado diferentes formatos: desde chips individuales hasta tarjetas aceleradoras y racks completos de servidores. Así, cada empresa puede elegir la opción que más le convenga. Además, aseguran que esta nueva familia de chips ayuda a reducir el coste total de propiedad y es compatible con los principales marcos de desarrollo de IA, como TensorFlow y PyTorch. Esto debería facilitar la integración en los sistemas que ya usan muchas compañías.
Eficiencia y rendimiento
Durga Malladi, vicepresidente sénior de Qualcomm, afirma que “con los Qualcomm AI200 y AI250, redefinimos lo que es posible en la inferencia de IA a escala de rack”. Con esto dejan claro que esperan que sus nuevos chips den un giro al sector, ofreciendo soluciones más avanzadas y eficientes.
Eso sí, todavía no se han publicado datos comparativos del rendimiento de estos chips frente a los de Nvidia y AMD, así que queda por ver cómo de competitivo será Qualcomm en este aspecto.
El futuro de Qualcomm en el mundo de la IA parece prometedor, aunque tendrá que demostrar de verdad todo lo que promete, tanto en eficiencia como en rendimiento. A medida que se acerquen las fechas de lanzamiento de los AI200 y AI250, habrá que estar atentos a cómo evoluciona esta competencia en un sector cada vez más animado.
