OpenAI comenzó a explorar alternativas a algunos de los chips de inteligencia artificial más recientes de Nvidia, en un movimiento que refleja las crecientes tensiones entre las necesidades operativas de los grandes modelos de IA y la oferta actual del mercado de semiconductores. La información fue revelada por Reuters, que citó a ocho fuentes con conocimiento directo de las conversaciones.
Según esas fuentes, la insatisfacción de OpenAI no está vinculada al entrenamiento de modelos, un segmento donde Nvidia mantiene una posición dominante, sino al desempeño de ciertos chips en tareas de inferencia, el proceso mediante el cual los modelos ya entrenados generan respuestas en tiempo real para los usuarios.
La inferencia se ha convertido en uno de los principales cuellos de botella técnicos y económicos para empresas que operan modelos a gran escala. A diferencia del entrenamiento, que se realiza de forma periódica, la inferencia es continua, intensiva en consumo energético y extremadamente sensible a la latencia. En ese contexto, pequeñas diferencias de eficiencia pueden tener impactos significativos en costos operativos y escalabilidad.
Búsqueda de hardware alternativo
OpenAI ha mantenido conversaciones con startups especializadas en chips para inferencia, entre ellas Cerebras y Groq, compañías que desarrollan arquitecturas diseñadas específicamente para acelerar este tipo de cargas de trabajo. El objetivo no sería reemplazar por completo a Nvidia, sino complementar su infraestructura con soluciones más eficientes en escenarios específicos.
Las fuentes citadas indicaron que OpenAI evalúa que estos chips alternativos podrían cubrir, a futuro, alrededor del 10% de sus necesidades de inferencia, lo que sugiere una estrategia de diversificación más que un cambio estructural de proveedor.
El reporte también señala que las conversaciones con Groq se vieron afectadas por un acuerdo de licencia entre esa empresa y Nvidia, valuado en aproximadamente 20.000 millones de dólares, lo que habría limitado la posibilidad de avanzar en un vínculo directo con OpenAI.
Una relación que sigue siendo central
Pese a estas exploraciones, OpenAI continúa dependiendo en gran medida del ecosistema de Nvidia. Un vocero de la compañía confirmó que Nvidia sigue siendo el principal proveedor de infraestructura de inferencia, mientras que desde la empresa de semiconductores sostienen que sus chips ofrecen el mejor rendimiento y costo total de propiedad cuando se operan a gran escala.
En paralelo, el CEO de OpenAI, Sam Altman, afirmó públicamente que la compañía espera seguir siendo “un cliente enorme” de Nvidia durante mucho tiempo, en un intento de bajar el tono a las versiones sobre un posible distanciamiento.
El trasfondo de esta dinámica es que los chips para IA, tienen una fuerte concentración en Nvidia como actor dominante, pero también con una nueva generación de empresas que apuntan a resolver problemas puntuales como latencia, consumo energético y eficiencia en inferencia.
Infraestructura, no ruptura
El movimiento de OpenAI debe leerse más como una señal de maduración del mercado que como una ruptura tecnológica. A medida que los modelos de IA pasan de la fase experimental a la operación masiva, las exigencias sobre la infraestructura cambian, y ya no se trata solo de entrenar modelos cada vez más grandes, sino de sostener millones de consultas simultáneas con costos controlados.
La dependencia de un único proveedor se vuelve un riesgo operativo. Explorar alternativas permite ganar margen de negociación, flexibilidad técnica y opciones para escalar sin comprometer desempeño.
Por ahora, no hay anuncios oficiales de acuerdos firmados, cambios de arquitectura ni migraciones de gran escala. Lo que sí queda claro es que la etapa actual de la inteligencia artificial empieza a exigir una discusión más profunda sobre infraestructura, más allá de los modelos y las aplicaciones visibles para el usuario final.