El post Qualcomm firma un importante cliente de centro de datos y amplía su alcance de mercado más allá de los chips móviles apareció en BitcoinEthereumNews.com. Qualcomm ha conseguido un importante cliente de hiperscalaEl post Qualcomm firma un importante cliente de centro de datos y amplía su alcance de mercado más allá de los chips móviles apareció en BitcoinEthereumNews.com. Qualcomm ha conseguido un importante cliente de hiperscala

Qualcomm firma un importante cliente de centros de datos y amplía su alcance de mercado más allá de los chips móviles

2026/05/17 08:33
Lectura de 2 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante [email protected]

Qualcomm ha conseguido un importante cliente de hiperescala para silicon personalizado de centros de datos, lo que marca el avance más agresivo de la empresa en infraestructura de servidores desde que abandonó ese mercado por completo en 2018.

Se espera que los envíos de los nuevos chips personalizados comiencen en diciembre de 2026.

De gigante móvil a contendiente en centros de datos

Qualcomm lanzó sus procesadores de servidor Centriq en 2017, posicionando los chips basados en ARM como una alternativa energéticamente eficiente al dominio de Intel. Para 2018, todo el proyecto fue clausurado.

La apuesta por la inferencia de IA

En lugar de intentar competir directamente con las GPU de entrenamiento de NVIDIA, Qualcomm apunta a un segmento específico de la pila de cómputo de IA: la inferencia.

La empresa está desarrollando aceleradores de IA personalizados basados en ASIC diseñados para gestionar cargas de trabajo de inferencia con un consumo de energía inferior al de las alternativas basadas en GPU.

Qualcomm indicó esta dirección estratégica en agosto de 2025, y la firma con un hiperescalador no identificado valida que el planteamiento está calando en al menos un gran cliente.

Un campo competitivo saturado y complejo

NVIDIA sigue siendo el líder indiscutible, con su arquitectura GPU como plataforma predeterminada tanto para el entrenamiento como para la inferencia. AMD ha ganado terreno con sus aceleradores de la serie MI. Intel continúa impulsando sus aceleradores Gaudi.

Amazon ha desarrollado sus propios chips Trainium e Inferentia para AWS. Google cuenta con sus TPU. Microsoft está desarrollando sus propios aceleradores Maia.

Los informes también indican que Qualcomm está explorando el despliegue de hardware de inferencia de IA en nuevas regiones geográficas, particularmente en América Latina.

El plazo de envío de diciembre de 2026 significa que la empresa debe ejecutar el desarrollo de silicon personalizado. Un cliente de hiperescala es un punto de prueba, no un negocio. Qualcomm necesitará demostrar que su arquitectura de inferencia puede atraer a múltiples grandes compradores para justificar la inversión en I+D.

Divulgación: Este artículo fue editado por el Equipo Editorial. Para más información sobre cómo creamos y revisamos el contenido, consulte nuestra Política Editorial.

Source: https://cryptobriefing.com/qualcomm-data-center-customer-ai-inference/

Oportunidad de mercado
Logo de Major
Precio de Major(MAJOR)
$0,06157
$0,06157$0,06157
-%0,14
USD
Gráfico de precios en vivo de Major (MAJOR)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección [email protected] para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.

¿No lees gráficos? Aun así, gana

¿No lees gráficos? Aun así, gana¿No lees gráficos? Aun así, gana

¡Copia a traders top en 3 s con trading automático!