Home MundoUSA Apple dice que sus modelos de IA fueron entrenados en chips personalizados de Google

Apple dice que sus modelos de IA fueron entrenados en chips personalizados de Google

por Redacción BL
0 comentario

Sundar Pichai y Tim Cook

Fuente: Reuters; Apple

Manzana dijo el lunes que los modelos de inteligencia artificial que sustentan Apple Intelligence, su sistema de IA, fueron entrenados previamente en procesadores diseñados por Google, una señal de que las grandes empresas tecnológicas están buscando alternativas a Nvidia Cuando se trata del entrenamiento de IA de vanguardia.

La elección de Apple de de google La Unidad de Procesamiento Tensorial (TPU) de fabricación propia para entrenamiento se detalló en Un artículo técnico recién publicado por La empresa también lanzó el lunes una versión preliminar de Apple Intelligence para algunos dispositivos.

Las costosas unidades de procesamiento gráfico (GPU) de Nvidia dominan el mercado de chips de entrenamiento de IA de alta gama y han tenido tanta demanda en los últimos años que ha sido difícil conseguirlas en las cantidades necesarias. OpenAI, Microsofty Anthropic utilizan GPU de Nvidia para sus modelos, mientras que otras empresas tecnológicas, incluida Google, Meta, Oráculo y Tesla están adquiriéndolos para desarrollar sus sistemas y ofertas de inteligencia artificial.

La semana pasada, el director ejecutivo de Meta, Mark Zuckerberg, y el director ejecutivo de Alphabet, Sundar Pichai, hicieron comentarios que sugerían que sus empresas y otras en la industria podrían estar invirtiendo demasiado en infraestructura de IA, pero reconocieron que el riesgo comercial de hacer lo contrario era demasiado alto.

«La desventaja de estar atrás es que estás fuera de posición para la tecnología más importante para los próximos 10 a 15 años», dijo Zuckerberg en un podcast con Emily Chang de Bloomberg.

Apple no menciona a Google ni a Nvidia en su documento de 47 páginas, pero sí señaló que su Apple Foundation Model (AFM) y su servidor AFM están entrenados en «clústeres Cloud TPU». Eso significa que Apple alquiló servidores de un proveedor de la nube para realizar los cálculos.

«Este sistema nos permite entrenar los modelos AFM de manera eficiente y escalable, incluidos AFM en el dispositivo, AFM en servidor y modelos más grandes», afirmó Apple en el documento.

Los representantes de Apple y Google no respondieron a las solicitudes de comentarios.

Apple reveló sus planes de IA más tarde que muchos de sus pares, que adoptaron abiertamente la IA generativa poco después del lanzamiento de ChatGPT de OpenAI a fines de 2022. El lunes, Apple presentó Apple Intelligence. El sistema incluye varias funciones nuevas, como un aspecto renovado para Siri, un mejor procesamiento del lenguaje natural y resúmenes generados por IA en campos de texto.

Durante el próximo año, Apple planea implementar funciones basadas en IA generativa, incluida la generación de imágenes, la generación de emojis y una Siri potenciada que puede acceder a la información personal del usuario y realizar acciones dentro de las aplicaciones.

En el artículo del lunes, Apple dijo que el AFM en el dispositivo fue entrenado en una única «segmentación» de 2048 chips TPU v5p que trabajaban juntos. Se trata del TPU más avanzado, lanzado por primera vez en diciembre. El servidor AFM fue entrenado en 8192 chips TPU v4 que se configuraron para trabajar juntos como ocho porciones a través de una red de centro de datos, según el artículo.

Las últimas TPU de Google cuestan menos de 2 dólares por hora de uso del chip cuando se reservan con tres años de antelación, según al sitio web de GoogleGoogle presentó por primera vez sus TPU en 2015 para cargas de trabajo internas y las puso a disposición del público en 2017. Ahora se encuentran entre los chips personalizados más maduros diseñados para inteligencia artificial.

Aun así, Google es uno de los principales clientes de Nvidia. Utiliza las GPU de Nvidia y sus propias TPU para entrenar sistemas de IA y también vende acceso a la tecnología de Nvidia en su nube.

Apple dijo anteriormente que la inferencia, que significa tomar un modelo de IA previamente entrenado y ejecutarlo para generar contenido o hacer predicciones, se realizaría parcialmente en los propios chips de Apple en sus centros de datos.

Este es el segundo documento técnico sobre el sistema de inteligencia artificial de Apple, después de que se publicara una versión más general en junio. Apple dijo En el momento que estaba utilizando TPU mientras desarrollaba sus modelos de IA.

Está previsto que Apple presente sus resultados trimestrales después del cierre de operaciones del jueves.

No te pierdas estos insights de CNBC PRO

Cómo el consumo masivo de energía de la IA generativa está sobrecargando nuestra red

Fuente de la Noticia

You may also like

Leave a Comment

Noticias de Buenaventura y el mundo

2024 – All Right Reserved. [email protected]