Home MundoUSA Google revela su supercomputadora AI más nueva, dice que supera a Nvidia

Google revela su supercomputadora AI más nueva, dice que supera a Nvidia

por Redacción BL
0 comentario

La sede de Google se ve en Mountain View, California, Estados Unidos, el 26 de septiembre de 2022.

Tayfun Coskun | Agencia Anadolu | Getty Images

Google detalles publicados sobre una de sus supercomputadoras de inteligencia artificial el miércoles, diciendo que es más rápido y más eficiente que los sistemas Nvidia de la competencia, ya que los modelos de aprendizaje automático que consumen mucha energía continúan siendo la parte más popular de la industria tecnológica.

Mientras nvidia domina el mercado de entrenamiento e implementación de modelos de IA, con más del 90%, Google ha estado diseñando e implementando chips de IA llamados Unidades de procesamiento de tensores, o TPU, desde 2016.

Google es un importante pionero de la IA y sus empleados han desarrollado algunos de los avances más importantes en el campo durante la última década. Pero algunos creen que se ha quedado atrás en términos de comercialización de sus inventos, e internamente, la compañía ha estado compitiendo para lanzar productos y demostrar que no ha desperdiciado su liderazgo, una situación de «código rojo» en la compañía, informó CNBC anteriormente.

Modelos y productos de IA, como Bard de Google o ChatGPT de OpenAI, impulsados ​​por Chips A100 de Nvidia — requieren muchas computadoras y cientos o miles de chips para trabajar juntos para entrenar modelos, con las computadoras funcionando las 24 horas del día durante semanas o meses.

El martes, Google dijo que había creado un sistema con más de 4000 TPU unidas con componentes personalizados diseñados para ejecutar y entrenar modelos de IA. Ha estado funcionando desde 2020 y se usó para entrenar el modelo PaLM de Google, que compite con el modelo GPT de OpenAI, durante 50 días.

La supercomputadora basada en TPU de Google, llamada TPU v4, es «entre 1,2 y 1,7 veces más rápida y usa entre 1,3 y 1,9 veces menos energía que la Nvidia A100», escribieron los investigadores de Google.

«El rendimiento, la escalabilidad y la disponibilidad hacen que las supercomputadoras TPU v4 sean los caballos de batalla de los grandes modelos de lenguaje», continuaron los investigadores.

Sin embargo, los resultados de TPU de Google no se compararon con el último chip Nvidia AI, el H100, porque es más reciente y se fabricó con una tecnología de fabricación más avanzada, dijeron los investigadores de Google.

Resultados y clasificaciones de una prueba de chip de IA en toda la industria llamada MLperf eran lanzado el miércolesy el CEO de Nvidia, Jensen Huang, dijo que los resultados del chip Nvidia más reciente, el H100, fueron significativamente más rápidos que los de la generación anterior.

«El MLPerf 3.0 de hoy destaca que Hopper ofrece 4 veces más rendimiento que A100», escribió Huang en una publicación de blog. «El siguiente nivel de IA generativa requiere una nueva infraestructura de IA para entrenar modelos de lenguaje grande con gran eficiencia energética.

La cantidad sustancial de potencia informática necesaria para la IA es costosa, y muchos en la industria se centran en desarrollar nuevos chips, componentes como conexiones ópticas o técnicas de software que reducen la cantidad de potencia informática necesaria.

Los requisitos de energía de la IA también son una bendición para los proveedores de la nube como Google, Microsoft y Amazonas, que puede alquilar procesamiento informático por horas y proporcionar créditos o tiempo informático a las empresas emergentes para establecer relaciones. (La nube de Google también vende tiempo en chips Nvidia). Por ejemplo, Google dijo que Midjourney, un generador de imágenes de IA, fue entrenado en sus chips TPU.

Fuente de la Noticia

También te puede interesar

Noticias de Buenaventura y el mundo

2024 – All Right Reserved. [email protected]