Home MundoUSA Nvidia domina el mercado de chips de IA, pero hay más competencia que nunca

Nvidia domina el mercado de chips de IA, pero hay más competencia que nunca

por Redacción BL
0 comentario

Jensen Huang, cofundador y director ejecutivo de Nvidia Corp., durante la Conferencia de Tecnología GPU de Nvidia (GTC) en San José, California, EE. UU., el martes 19 de marzo de 2024.

David Paul Morris | Bloomberg | Getty Images

Nvidia El repunte del 27% en mayo elevó su capitalización de mercado a 2,7 billones de dólares, sólo por detrás microsoft y Manzana entre las empresas públicas más valiosas del mundo. El fabricante de chips informó que sus ventas interanuales se triplicaron por tercer trimestre consecutivo, impulsadas por la creciente demanda de sus procesadores de inteligencia artificial.

Mizuho Securities estima que Nvidia controla entre el 70% y el 95% del mercado de chips de IA utilizados para entrenar e implementar modelos como el GPT de OpenAI. Lo que subraya el poder de fijación de precios de Nvidia es un margen bruto del 78%, una cifra sorprendentemente alta para una empresa de hardware que tiene que fabricar y enviar productos físicos.

Fabricantes de chips rivales Intel y Micro dispositivos avanzados reportó márgenes brutos en el último trimestre del 41% y 47%, respectivamente.

Algunos expertos han descrito la posición de Nvidia en el mercado de chips de IA como un foso. Sus unidades de procesamiento de gráficos (GPU) de IA emblemáticas, como la H100, junto con el software CUDA de la compañía dieron tal ventaja a la competencia que cambiar a una alternativa puede parecer casi impensable.

Aún así, el director ejecutivo de Nvidia, Jensen Huang, cuyo patrimonio neto ha aumentado de 3.000 millones de dólares a alrededor de 90.000 millones de dólares en los últimos cinco años, ha dicho que está «preocupado y preocupado» porque su empresa de 31 años pierda su ventaja. Reconoció en una conferencia a finales del año pasado que hay muchos competidores poderosos en ascenso.

«No creo que la gente esté intentando sacarme del negocio», dijo Huang. dicho en noviembre. «Probablemente sé que lo están intentando, así que eso es diferente».

Nvidia se ha comprometido a lanzar una nueva arquitectura de chip de IA cada añoen lugar de cada dos años como era el caso históricamente, y lanzar nuevo software que pudiera arraigar más profundamente sus chips en el software de inteligencia artificial.

Pero la GPU de Nvidia no es la única que puede ejecutar las complejas matemáticas que sustentan la IA generativa. Si chips menos potentes pueden hacer el mismo trabajo, Huang podría estar justificadamente paranoico.

La transición del entrenamiento de modelos de IA a lo que se llama inferencia (o implementación de modelos) también podría brindar a las empresas la oportunidad de reemplazar las GPU de Nvidia, especialmente si son menos costosas de comprar y operar. El chip insignia de Nvidia cuesta aproximadamente 30.000 dólares o más, lo que ofrece a los clientes muchos incentivos para buscar alternativas.

«A Nvidia le encantaría tener el 100%, pero a los clientes no les encantaría que Nvidia tuviera el 100%», dijo Sid Sheth, cofundador del aspirante a rival D-Matrix. «Es una oportunidad demasiado grande. Sería demasiado perjudicial para la salud si una sola empresa la aprovechara toda».

Fundada en 2019, D-Matrix planea lanzar una tarjeta semiconductora para servidores a finales de este año que tiene como objetivo reducir el costo y la latencia de la ejecución de modelos de IA. La empresa aumentó 110 millones de dólares en septiembre.

Además de D-Matrix, empresas que van desde corporaciones multinacionales hasta nuevas empresas están luchando por una porción del mercado de chips de IA que podría alcanzar los 400 mil millones de dólares en ventas anuales en los próximos cinco años, según analistas de mercado y AMD. Nvidia ha generado alrededor de 80 mil millones de dólares en ingresos en los últimos cuatro trimestres, y Bank of America estima que la compañía vendió 34,5 mil millones de dólares en chips de inteligencia artificial el año pasado.

Muchas empresas que adoptan las GPU de Nvidia apuestan a que una arquitectura diferente o ciertas compensaciones podrían producir un mejor chip para tareas particulares. Los fabricantes de dispositivos también están desarrollando tecnología que podría terminar haciendo gran parte de la computación para la IA que actualmente se lleva a cabo en grandes clústeres basados ​​en GPU en la nube.

«Nadie puede negar que hoy Nvidia es el hardware que queremos para entrenar y ejecutar modelos de IA», afirma Fernando Vidal, cofundador de 3Fourteen Research. le dijo a CNBC. «Pero ha habido un progreso gradual en la nivelación del campo de juego, desde hiperescaladores que trabajan en sus propios chips hasta pequeñas empresas emergentes que diseñan su propio silicio».

Lisa Su, directora ejecutiva de AMD, quiere que los inversores crean que hay mucho espacio para muchas empresas exitosas en este espacio.

«La clave es que hay muchas opciones allí», dijo Su a los periodistas en diciembre, cuando su empresa lanzó su chip de IA más reciente. «Creo que vamos a ver una situación en la que no habrá sólo una solución, habrá múltiples soluciones».

Otros grandes fabricantes de chips

Lisa Su muestra un chip AMD Instinct MI300 mientras pronuncia un discurso de apertura en CES 2023 en Las Vegas, Nevada, el 4 de enero de 2023.

David Becker | Getty Images

AMD fabrica GPU para juegos y, al igual que Nvidia, las está adaptando para la IA dentro de los centros de datos. Su chip insignia es el Instinct MI300X. Microsoft ya compró procesadores AMD y ofrece acceso a ellos a través de su nube Azure.

En el lanzamiento, Su destacó la excelencia del chip en inferencia, en lugar de competir con Nvidia en entrenamiento. La semana pasada, Microsoft dijo que estaba utilizando GPU AMD Instinct para sus modelos Copilot. Los analistas de Morgan Stanley tomaron la noticia como una señal de que las ventas de chips de IA de AMD podrían superar los 4 mil millones de dólares este año, el objetivo público de la compañía.

Intel, que fue superada por Nvidia el año pasado en términos de ingresos, también está tratando de establecer una presencia en la IA. La compañía anunció recientemente la tercera versión de su acelerador de IA, Gaudi 3. Esta vez Intel lo comparó directamente con la competencia, describiéndolo como una alternativa más rentable y mejor que el H100 de Nvidia en términos de ejecución de inferencia, mientras que es más rápido en el entrenamiento de modelos. .

Los analistas del Bank of America estimaron recientemente que Intel tendrá menos del 1% del mercado de chips de IA este año. Intel dice que tiene un pedido atrasado de 2.000 millones de dólares para el chip.

El principal obstáculo para una adopción más amplia puede ser el software. AMD e Intel participan en un gran grupo industrial llamado la fundación uxlque incluye Googleque está trabajando para crear alternativas gratuitas a CUDA de Nvidia para controlar hardware para aplicaciones de IA.

Los principales clientes de Nvidia

Un desafío potencial para Nvidia es que está compitiendo contra algunos de sus clientes más importantes. Proveedores de nube, incluidos Google, Microsoft y Amazonas Todos ellos son procesadores de construcción para uso interno. Las tres grandes tecnológicas, más Oráculorepresentan más del 40% de los ingresos de Nvidia.

Amazon presentó sus propios chips orientados a la IA en 2018, bajo la marca Inferentia. Inferentia ya va por su segunda versión. En 2021, Amazon Web Services estrenó Tranium dirigido a la formación. Los clientes no pueden comprar los chips, pero pueden alquilar sistemas a través de AWS, que comercializa los chips como más rentables que los de Nvidia.

Google es quizás el proveedor de nube más comprometido con su propio silicio. La compañía ha estado utilizando lo que llama Unidades de Procesamiento Tensoriales (TPU) desde 2015 para entrenar e implementar modelos de IA. En mayo, Google anunció la sexta versión de su chip, Trillium, que según la compañía se utilizó para desarrollar sus modelos, incluidos Gemini e Imagen.

Google también utiliza chips Nvidia y los ofrece a través de su nube.

Microsoft no está tan avanzado. La empresa dijo el año pasado que estaba construyendo su propio acelerador y procesador de IA, llamado Maia y Cobalt.

Meta no es un proveedor de nube, pero la empresa necesita enormes cantidades de potencia informática para ejecutar su software y sitio web y publicar anuncios. Si bien la empresa matriz de Facebook está comprando procesadores Nvidia por valor de miles de millones de dólares, dijo en abril que algunos de sus chips locales ya estaban en centros de datos y permitían una «mayor eficiencia» en comparación con las GPU.

Los analistas de JPMorgan estimaron en mayo que el mercado de construcción de chips personalizados para grandes proveedores de nube podría valer hasta 30.000 millones de dólares, con un crecimiento potencial del 20% anual.

Inauguración

El chip WSE-3 de Cerebras es un ejemplo de nuevo silicio diseñado para ejecutar y entrenar inteligencia artificial.

Sistemas cerebrales

Los capitalistas de riesgo ven oportunidades para que las empresas emergentes entren al juego. Invirtieron 6.000 millones de dólares en empresas de semiconductores de IA en 2023, ligeramente más que los 5.700 millones de dólares del año anterior, según datos de PitchBook.

Es un área difícil para las nuevas empresas, ya que los semiconductores son costosos de diseñar, desarrollar y fabricar. Pero hay oportunidades de diferenciación.

Para Cerebras Systems, un fabricante de chips de IA en Silicon Valley, la atención se centra en las operaciones básicas y los cuellos de botella de la IA, frente a la naturaleza de propósito más general de una GPU. La compañía fue fundada en 2015 y fue valorada en 4 mil millones de dólares durante su recaudación de fondos más reciente, según Bloomberg.

El chip Cerebras, WSE-2, reúne capacidades de GPU, así como procesamiento central y memoria adicional en un solo dispositivo, lo que es mejor para entrenar modelos grandes, dijo el director ejecutivo Andrew Feldman.

«Nosotros usamos un chip gigante, ellos usan muchos chips pequeños», dijo Feldman. «Ellos tienen desafíos a la hora de mover datos, nosotros no».

Feldman dijo que su empresa, que cuenta con Mayo Clinic, GlaxoSmithKliney el ejército de EE. UU. como clientes, está ganando negocios para sus sistemas de supercomputación, incluso compitiendo con Nvidia.

«Existe una amplia competencia y creo que eso es saludable para el ecosistema», dijo Feldman.

Sheth de D-Matrix dijo que su compañía planea lanzar una tarjeta con su chiplet a finales de este año que permitirá una mayor computación en la memoria, en lugar de en un chip como una GPU. El producto de D-Matrix se puede insertar en un servidor de IA junto con las GPU existentes, pero quita trabajo a los chips Nvidia y ayuda a reducir el costo de la IA generativa.

Los clientes «son muy receptivos y están muy incentivados para permitir que una nueva solución llegue al mercado», afirmó Sheth.

Apple y Qualcomm

Los dispositivos Apple iPhone 15 se exhiben a la venta en la tienda minorista The Grove Apple el día de su lanzamiento en Los Ángeles, California, el 22 de septiembre de 2023.

Patricio T. Fallon | afp | Getty Images

La mayor amenaza para el negocio de centros de datos de Nvidia puede ser un cambio en el lugar donde se realiza el procesamiento.

Los desarrolladores apuestan cada vez más a que el trabajo de IA pasará de las granjas de servidores a las computadoras portátiles, PC y teléfonos que poseemos.

Los modelos grandes como los desarrollados por OpenAI requieren grupos masivos de GPU potentes para realizar inferencias, pero empresas como Apple y Microsoft están desarrollando «modelos pequeños» que requieren menos energía y datos y pueden funcionar con un dispositivo alimentado por batería. Puede que no sean tan hábiles como la última versión de ChatGPT, pero existen otras aplicaciones que realizan, como resumir texto o búsqueda visual.

Apple y Qualcomm están actualizando sus chips para ejecutar la IA de manera más eficiente, agregando secciones especializadas para modelos de IA llamados procesadores neuronales, que pueden tener ventajas de privacidad y velocidad.

Qualcomm anunció recientemente un chip para PC que permitirá que las computadoras portátiles ejecuten los servicios de inteligencia artificial de Microsoft en el dispositivo. La compañía también ha invertido en varios fabricantes de chips que fabrican procesadores de menor potencia para ejecutar algoritmos de inteligencia artificial fuera de un teléfono inteligente o una computadora portátil.

Apple ha estado comercializando sus últimas computadoras portátiles y tabletas como optimizadas para IA debido al motor neuronal de sus chips. En su próxima conferencia de desarrolladores, Apple planea mostrar una serie de nuevas funciones de inteligencia artificial, probablemente ejecutándose en el silicio de la compañía que funciona con el iPhone.

No te pierdas estas exclusivas de CNBC PRO

Nvidia y Microsoft han eclipsado la debilidad de las acciones tecnológicas, dice Dan Greenhaus de Solus

Fuente de la Noticia

You may also like

Leave a Comment

Noticias de Buenaventura y el mundo

2024 – All Right Reserved. [email protected]